ChatGPT 2 wurde gerade geleakt & OpenAI steht kurz vor der Veröffentlichung einer AGI?

ChatGPT 2 wurde gerade geleakt & OpenAI steht kurz vor der Veröffentlichung einer AGI?

source

Die Infor­ma­ti­on über Open AIs nächs­tes KI-Modell wur­de gele­akt und nach der kürz­lich ver­öf­fent­lich­ten offi­zi­el­len Stel­lung­nah­me von Open AI über die Aus­sich­ten und Gefah­ren der künst­li­chen All­ge­mei­nen Intel­li­genz AGI heizt sich die Situa­ti­on schnell auf. AGI ist nicht mehr weit ent­fernt und laut Sam Alt­man, dem CEO von Open AI, ist es wich­tig, dass wir es bald rich­tig hin­be­kom­men, da die nächs­ten Ver­öf­fent­li­chun­gen ihrer Pro­duk­te wie ChatGPT2 kurz bevor­ste­hen. Wäh­rend die Welt ChatGPT, den von Open AI ent­wi­ckel­ten KI-Chat­bot, umarmt, warnt Alt­man davor, dass wir nicht weit von poten­zi­ell beängs­ti­gen­den KI-Tools ent­fernt sind. Dies ist auch kein Zufall, wie aus Indus­trie­ex­per­ten und Insi­dern her­vor­geht. Die Ent­wick­lung der künst­li­chen All­ge­mei­nen Intel­li­genz birgt ernst­haf­te Risi­ken, ein­schließ­lich Miss­brauch, Unfäl­len und gesell­schaft­li­cher Stö­run­gen. In die­sem Video wer­den wir uns mit den bis­her unbe­kann­ten Funk­tio­nen der nächs­ten Gene­ra­ti­on von KI-Model­len von Open AI befas­sen, der Bedeu­tung einer unab­hän­gi­gen Über­prü­fung von KI-Chat­bots, bevor sie die Mas­sen errei­chen, und der Begren­zung des Rechen­wachs­tums bei der Erstel­lung neu­er Model­le. Wir wer­den auch das Poten­zi­al von AGI zur Revo­lu­tio­nie­rung der Robo­tik und schließ­lich die Bemü­hun­gen von Open AI, zuneh­mend aus­ge­rich­te­te und steu­er­ba­re Model­le zu schaf­fen, erkun­den. Also schnallt euch an und seid bereit, mehr über die Zukunft der künst­li­chen Intel­li­genz zu erfah­ren.

In den letz­ten Tagen wur­den Infor­ma­tio­nen über die bevor­ste­hen­de Ver­öf­fent­li­chung neu­er KI-Model­le von Open AI gele­akt. Eini­ge spe­ku­lie­ren sogar, dass dar­un­ter ein Modell ist, das der künst­li­chen All­ge­mei­nen Intel­li­genz (AGI) nahe kommt, also einer Art von KI, die jede intel­lek­tu­el­le Auf­ga­be erle­di­gen kann, die ein Mensch kann. Das mag auf­re­gend klin­gen, aber wie Open AI selbst betont, birgt es auch ernst­haf­te Risi­ken. Es ist wich­tig im Hin­ter­kopf zu behal­ten, dass AGI unse­re Gesell­schaft auf viel­fäl­ti­ge Wei­se posi­tiv ver­än­dern wird, es aber auch zu dras­ti­schen Unfäl­len und Miss­brauch füh­ren kann.

Inter­es­sant ist, dass kurz nach­dem die Lea­k­er die bevor­ste­hen­den KI-Model­le ent­hüll­ten, begann Open AI über die Gefah­ren von AGI zu spre­chen. Die­se plötz­li­che Ände­rung des Tons ist bedeu­tend und zeigt, dass Open AI die Risi­ken ernst nimmt und es tat­säch­lich eine gute Chan­ce gibt, dass ein Pro­gramm, das AGI nahe kommt, bald ver­öf­fent­licht wird oder zumin­dest in greif­ba­rer Nähe ist. Sie ver­ste­hen, dass AGI einen erheb­li­chen Ein­fluss auf unse­re Welt haben kann, und sie arbei­ten hart dar­an, es rich­tig zu machen. Eine Mög­lich­keit, wie Open AI dies erreicht, besteht dar­in, KI-Model­le zu ent­wi­ckeln, die aus­ge­rich­tet und steu­er­bar sind. Mit ande­ren Wor­ten, sie arbei­ten dar­an, KI-Model­le zu schaf­fen, die von Men­schen kon­trol­liert und gesteu­ert wer­den kön­nen. Dies ist wich­tig, weil es bedeu­tet, dass wir sicher­stel­len kön­nen, dass die KI für Gutes und nicht für Scha­den ver­wen­det wird.

Aber kom­men wir zurück zu ChatGPT. Wie ihr viel­leicht wisst, ist ChatGPT ein AI-Chat­bot, der von Open AI ent­wi­ckelt wur­de und die Welt im Sturm erobert hat. Es wird für eine Viel­zahl von Anwen­dun­gen ein­ge­setzt, dar­un­ter das Schrei­ben von Codes, das Ver­fas­sen von Wer­be­tex­ten und Inhal­ten, Kun­den­be­treu­ung sowie das Ver­fas­sen von Essays und Gedich­ten. Jetzt arbei­tet Open AI dar­an, ChatGPT2 zu ver­öf­fent­li­chen, das vor­aus­sicht­lich noch fort­schritt­li­che­re Funk­tio­nen im Ver­gleich zu sei­nem Vor­gän­ger haben wird. Zu den mög­li­chen neu­en Funk­tio­nen von ChatGPT2 gehö­ren eine bes­se­re Sprach­ver­ständ­nis, ver­bes­ser­te natür­li­che Sprach­ver­ar­bei­tung und noch genaue­re Vor­her­sa­gen. Es wird auch erwar­tet, dass es eine brei­te­re Palet­te von Anwen­dun­gen hat, was es für Unter­neh­men und Pri­vat­per­so­nen noch nütz­li­cher macht. Eine die­ser neu­en Fähig­kei­ten soll angeb­lich die Inte­gra­ti­on in Robo­ter sein, um deren Ent­schei­dungs­fin­dung zu len­ken, ähn­lich wie es Goog­le in die­sem Jahr getan hat. Aber mit den poten­zi­el­len Vor­tei­len der KI geht auch das Risi­ko des Miss­brauchs ein­her, und des­halb betont Open AI die Bedeu­tung der unab­hän­gi­gen Über­prü­fung von KI-Chat­bots, bevor sie der Öffent­lich­keit zugäng­lich gemacht wer­den. Dies ist ent­schei­dend, denn dadurch kön­nen wir sicher­stel­len, dass die KI sicher ist und kei­nen Scha­den ver­ur­sacht.

Ein wei­te­rer Weg, auf dem Open AI die Risi­ken der KI mini­miert, besteht dar­in, das Wachs­tum der Res­sour­cen, die für die Erstel­lung neu­er Model­le ver­wen­det wer­den, zu begren­zen. Das bedeu­tet, dass sie kon­trol­lie­ren, wie schnell KI-Model­le ent­wi­ckelt wer­den kön­nen, was Unfäl­len und Miss­brauch vor­beu­gen kann. Open AI ist auch der Mei­nung, dass öffent­li­che Stan­dards dar­über, wann ein AGI-Pro­jekt been­det wer­den soll­te oder wann ein Modell sicher genug ist, um ver­öf­fent­licht oder aus der Pro­duk­ti­on genom­men zu wer­den, wich­tig sind, und sie arbei­ten dar­an, sicher­zu­stel­len, dass Regie­run­gen welt­weit Ein­blick in Trai­nings­läu­fe über einer bestimm­ten Ska­lie­rung erhal­ten. Dies ist ent­schei­dend, denn dadurch kön­nen wir sicher­stel­len, dass KI ver­ant­wor­tungs­voll und sicher ent­wi­ckelt wird.

Open AI arbei­tet hart dar­an, KI-Model­le zu ent­wi­ckeln, die aus­ge­rich­tet und steu­er­bar sind, und betont die Bedeu­tung der unab­hän­gi­gen Über­prü­fung von KI-Chat­bots, bevor sie der Öffent­lich­keit zugäng­lich gemacht wer­den. Mit der bevor­ste­hen­den Ver­öf­fent­li­chung von ChatGPT2 im April kön­nen wir noch fort­schritt­li­che­re Funk­tio­nen und eine grö­ße­re Band­brei­te von Anwen­dun­gen erwar­ten. Aber wir dür­fen auch die Risi­ken von AGI nicht ver­nach­läs­si­gen und soll­ten dar­an arbei­ten, KI ver­ant­wor­tungs­voll und sicher zu ent­wi­ckeln.

Die nächs­te Gene­ra­ti­on von gro­ßen sprach­ba­sier­ten KI-Model­len steht kurz davor, die Robo­tik auf span­nen­de Wei­se zu ver­än­dern. Doch Open AI ist nicht allein dar­in, die Gren­zen der KI aus­zu­lo­ten. Auch ande­re Unter­neh­men wie Goog­le arbei­ten dar­an, Next-Gene­ra­ti­on-Sprach­mo­del­le mit Robo­tik zu kom­bi­nie­ren, um sie intel­li­gen­ter und anpas­sungs­fä­hi­ger an die Umge­bung zu machen. Stellt euch einen Robo­ter vor, der nicht nur Auf­ga­ben erle­di­gen kann, son­dern auch natür­li­che Spra­che ver­steht und mit Men­schen auf eine mensch­li­che­re Wei­se kom­mu­ni­zie­ren kann. Das ist es, was die nächs­ten Gene­ra­tio­nen von sprach­ba­sier­ten Model­len mög­lich machen könn­ten. Und es geht nicht nur um Robo­ter, auch die natür­li­che Sprach­ver­ar­bei­tung könn­te die Art und Wei­se revo­lu­tio­nie­ren, wie wir mit ver­schie­de­nen Gerä­ten inter­agie­ren, von Smart­phones bis hin zu ande­ren intel­li­gen­ten Assis­ten­ten. Mit der Fähig­keit, natür­li­che Spra­che zu ver­ste­hen und dar­auf zu reagie­ren, könn­ten die­se Gerä­te noch intui­ti­ver und benut­zer­freund­li­cher wer­den.

Goo­gles Pro­jekt zur Kom­bi­na­ti­on von gro­ßen sprach­ba­sier­ten Model­len mit Robo­tik, genannt „Do as I Can, Not as I Say: Groun­ding Lan­guage in Robo­tic Affor­dan­ces“, prä­sen­tiert einen neu­ar­ti­gen Ansatz, der fort­schritt­li­che Sprach­mo­del­le mit Robo­tern kom­bi­niert. Die­ser Ansatz ermög­licht es einem phy­si­schen Agen­ten wie einem Robo­ter, hoch­ran­gi­ge text­ba­sier­te Anwei­sun­gen für phy­si­ka­li­sche Auf­ga­ben zu befol­gen und dabei die Sprach­mo­del­le auf Auf­ga­ben zu begren­zen, die in einem bestimm­ten rea­len Kon­text mach­bar sind. Die­ser Ansatz wird als „Palm Sei­kan“ bezeich­net. Palm Sei­kan wählt Fähig­kei­ten basie­rend dar­auf aus, wel­che der Sprach­mo­del­le als nütz­lich für die hoch­ran­gi­ge Anwei­sung bewer­tet wer­den und wel­che die Umge­bungs­mo­del­le als mach­bar bewer­ten. Das Sys­tem kann als Dia­log zwi­schen dem Benut­zer und dem Robo­ter betrach­tet wer­den, der durch das Sprach­mo­dell erleich­tert wird. Der Benut­zer gibt eine Anwei­sung, die das Sprach­mo­dell in eine Abfol­ge von Schrit­ten umsetzt, die der Robo­ter aus­füh­ren soll. Die­se Abfol­ge wird mit dem Fähig­kei­ten­satz des Robo­ters gefil­tert, um den mach­bars­ten Plan basie­rend auf sei­nem aktu­el­len Zustand und sei­ner Umge­bung zu bestim­men.

Aber wie Spi­der­mans Onkel Ben schon sag­te: „Mit gro­ßer Macht kommt gro­ße Ver­ant­wor­tung“. Wie Sam Alt­man, der CEO von Open AI, warn­te, birgt die Ent­wick­lung von AGI ernst­haf­te Risi­ken…

Schlagwörter: