ChatGPT 2 wurde gerade geleakt & OpenAI steht kurz vor der Veröffentlichung einer AGI?

source

Die Infor­ma­tion über Open AIs näch­stes KI-Mod­ell wurde geleakt und nach der kür­zlich veröf­fentlicht­en offiziellen Stel­lung­nahme von Open AI über die Aus­sicht­en und Gefahren der kün­stlichen All­ge­meinen Intel­li­genz AGI heizt sich die Sit­u­a­tion schnell auf. AGI ist nicht mehr weit ent­fer­nt und laut Sam Alt­man, dem CEO von Open AI, ist es wichtig, dass wir es bald richtig hin­bekom­men, da die näch­sten Veröf­fentlichun­gen ihrer Pro­duk­te wie ChatGPT2 kurz bevorste­hen. Während die Welt Chat­G­PT, den von Open AI entwick­el­ten KI-Chat­bot, umarmt, warnt Alt­man davor, dass wir nicht weit von poten­ziell beängsti­gen­den KI-Tools ent­fer­nt sind. Dies ist auch kein Zufall, wie aus Indus­trie­ex­perten und Insid­ern her­vorge­ht. Die Entwick­lung der kün­stlichen All­ge­meinen Intel­li­genz birgt ern­sthafte Risiken, ein­schließlich Miss­brauch, Unfällen und gesellschaftlich­er Störun­gen. In diesem Video wer­den wir uns mit den bish­er unbekan­nten Funk­tio­nen der näch­sten Gen­er­a­tion von KI-Mod­ellen von Open AI befassen, der Bedeu­tung ein­er unab­hängi­gen Über­prü­fung von KI-Chat­bots, bevor sie die Massen erre­ichen, und der Begren­zung des Rechenwach­s­tums bei der Erstel­lung neuer Mod­elle. Wir wer­den auch das Poten­zial von AGI zur Rev­o­lu­tion­ierung der Robotik und schließlich die Bemühun­gen von Open AI, zunehmend aus­gerichtete und steuer­bare Mod­elle zu schaf­fen, erkun­den. Also schnallt euch an und seid bere­it, mehr über die Zukun­ft der kün­stlichen Intel­li­genz zu erfahren.

In den let­zten Tagen wur­den Infor­ma­tio­nen über die bevorste­hende Veröf­fentlichung neuer KI-Mod­elle von Open AI geleakt. Einige spekulieren sog­ar, dass darunter ein Mod­ell ist, das der kün­stlichen All­ge­meinen Intel­li­genz (AGI) nahe kommt, also ein­er Art von KI, die jede intellek­tuelle Auf­gabe erledi­gen kann, die ein Men­sch kann. Das mag aufre­gend klin­gen, aber wie Open AI selb­st betont, birgt es auch ern­sthafte Risiken. Es ist wichtig im Hin­terkopf zu behal­ten, dass AGI unsere Gesellschaft auf vielfältige Weise pos­i­tiv verän­dern wird, es aber auch zu drastis­chen Unfällen und Miss­brauch führen kann.

Inter­es­sant ist, dass kurz nach­dem die Leak­er die bevorste­hen­den KI-Mod­elle enthüll­ten, begann Open AI über die Gefahren von AGI zu sprechen. Diese plöt­zliche Änderung des Tons ist bedeu­tend und zeigt, dass Open AI die Risiken ernst nimmt und es tat­säch­lich eine gute Chance gibt, dass ein Pro­gramm, das AGI nahe kommt, bald veröf­fentlicht wird oder zumin­d­est in greif­bar­er Nähe ist. Sie ver­ste­hen, dass AGI einen erhe­blichen Ein­fluss auf unsere Welt haben kann, und sie arbeit­en hart daran, es richtig zu machen. Eine Möglichkeit, wie Open AI dies erre­icht, beste­ht darin, KI-Mod­elle zu entwick­eln, die aus­gerichtet und steuer­bar sind. Mit anderen Worten, sie arbeit­en daran, KI-Mod­elle zu schaf­fen, die von Men­schen kon­trol­liert und ges­teuert wer­den kön­nen. Dies ist wichtig, weil es bedeutet, dass wir sich­er­stellen kön­nen, dass die KI für Gutes und nicht für Schaden ver­wen­det wird.

Aber kom­men wir zurück zu Chat­G­PT. Wie ihr vielle­icht wisst, ist Chat­G­PT ein AI-Chat­bot, der von Open AI entwick­elt wurde und die Welt im Sturm erobert hat. Es wird für eine Vielzahl von Anwen­dun­gen einge­set­zt, darunter das Schreiben von Codes, das Ver­fassen von Wer­be­tex­ten und Inhal­ten, Kun­den­be­treu­ung sowie das Ver­fassen von Essays und Gedicht­en. Jet­zt arbeit­et Open AI daran, ChatGPT2 zu veröf­fentlichen, das voraus­sichtlich noch fortschrit­tlichere Funk­tio­nen im Ver­gle­ich zu seinem Vorgänger haben wird. Zu den möglichen neuen Funk­tio­nen von ChatGPT2 gehören eine bessere Sprachver­ständ­nis, verbesserte natür­liche Sprachver­ar­beitung und noch genauere Vorher­sagen. Es wird auch erwartet, dass es eine bre­it­ere Palette von Anwen­dun­gen hat, was es für Unternehmen und Pri­vat­per­so­n­en noch nüt­zlich­er macht. Eine dieser neuen Fähigkeit­en soll ange­blich die Inte­gra­tion in Robot­er sein, um deren Entschei­dungs­find­ung zu lenken, ähn­lich wie es Google in diesem Jahr getan hat. Aber mit den poten­ziellen Vorteilen der KI geht auch das Risiko des Miss­brauchs ein­her, und deshalb betont Open AI die Bedeu­tung der unab­hängi­gen Über­prü­fung von KI-Chat­bots, bevor sie der Öffentlichkeit zugänglich gemacht wer­den. Dies ist entschei­dend, denn dadurch kön­nen wir sich­er­stellen, dass die KI sich­er ist und keinen Schaden verursacht.

Ein weit­er­er Weg, auf dem Open AI die Risiken der KI min­imiert, beste­ht darin, das Wach­s­tum der Ressourcen, die für die Erstel­lung neuer Mod­elle ver­wen­det wer­den, zu begren­zen. Das bedeutet, dass sie kon­trol­lieren, wie schnell KI-Mod­elle entwick­elt wer­den kön­nen, was Unfällen und Miss­brauch vor­beu­gen kann. Open AI ist auch der Mei­n­ung, dass öffentliche Stan­dards darüber, wann ein AGI-Pro­jekt been­det wer­den sollte oder wann ein Mod­ell sich­er genug ist, um veröf­fentlicht oder aus der Pro­duk­tion genom­men zu wer­den, wichtig sind, und sie arbeit­en daran, sicherzustellen, dass Regierun­gen weltweit Ein­blick in Train­ingsläufe über ein­er bes­timmten Skalierung erhal­ten. Dies ist entschei­dend, denn dadurch kön­nen wir sich­er­stellen, dass KI ver­ant­wor­tungsvoll und sich­er entwick­elt wird.

Open AI arbeit­et hart daran, KI-Mod­elle zu entwick­eln, die aus­gerichtet und steuer­bar sind, und betont die Bedeu­tung der unab­hängi­gen Über­prü­fung von KI-Chat­bots, bevor sie der Öffentlichkeit zugänglich gemacht wer­den. Mit der bevorste­hen­den Veröf­fentlichung von ChatGPT2 im April kön­nen wir noch fortschrit­tlichere Funk­tio­nen und eine größere Band­bre­ite von Anwen­dun­gen erwarten. Aber wir dür­fen auch die Risiken von AGI nicht ver­nach­läs­si­gen und soll­ten daran arbeit­en, KI ver­ant­wor­tungsvoll und sich­er zu entwickeln.

Die näch­ste Gen­er­a­tion von großen sprach­basierten KI-Mod­ellen ste­ht kurz davor, die Robotik auf span­nende Weise zu verän­dern. Doch Open AI ist nicht allein darin, die Gren­zen der KI auszu­loten. Auch andere Unternehmen wie Google arbeit­en daran, Next-Gen­er­a­tion-Sprach­mod­elle mit Robotik zu kom­binieren, um sie intel­li­gen­ter und anpas­sungs­fähiger an die Umge­bung zu machen. Stellt euch einen Robot­er vor, der nicht nur Auf­gaben erledi­gen kann, son­dern auch natür­liche Sprache ver­ste­ht und mit Men­schen auf eine men­schlichere Weise kom­mu­nizieren kann. Das ist es, was die näch­sten Gen­er­a­tio­nen von sprach­basierten Mod­ellen möglich machen kön­nten. Und es geht nicht nur um Robot­er, auch die natür­liche Sprachver­ar­beitung kön­nte die Art und Weise rev­o­lu­tion­ieren, wie wir mit ver­schiede­nen Geräten inter­agieren, von Smart­phones bis hin zu anderen intel­li­gen­ten Assis­ten­ten. Mit der Fähigkeit, natür­liche Sprache zu ver­ste­hen und darauf zu reagieren, kön­nten diese Geräte noch intu­itiv­er und benutzer­fre­undlich­er werden.

Googles Pro­jekt zur Kom­bi­na­tion von großen sprach­basierten Mod­ellen mit Robotik, genan­nt “Do as I Can, Not as I Say: Ground­ing Lan­guage in Robot­ic Affor­dances”, präsen­tiert einen neuar­ti­gen Ansatz, der fortschrit­tliche Sprach­mod­elle mit Robot­ern kom­biniert. Dieser Ansatz ermöglicht es einem physis­chen Agen­ten wie einem Robot­er, hochrangige textbasierte Anweisun­gen für physikalis­che Auf­gaben zu befol­gen und dabei die Sprach­mod­elle auf Auf­gaben zu begren­zen, die in einem bes­timmten realen Kon­text mach­bar sind. Dieser Ansatz wird als “Palm Seikan” beze­ich­net. Palm Seikan wählt Fähigkeit­en basierend darauf aus, welche der Sprach­mod­elle als nüt­zlich für die hochrangige Anweisung bew­ertet wer­den und welche die Umge­bungsmod­elle als mach­bar bew­erten. Das Sys­tem kann als Dia­log zwis­chen dem Benutzer und dem Robot­er betra­chtet wer­den, der durch das Sprach­mod­ell erle­ichtert wird. Der Benutzer gibt eine Anweisung, die das Sprach­mod­ell in eine Abfolge von Schrit­ten umset­zt, die der Robot­er aus­führen soll. Diese Abfolge wird mit dem Fähigkeit­en­satz des Robot­ers gefiltert, um den mach­barsten Plan basierend auf seinem aktuellen Zus­tand und sein­er Umge­bung zu bestimmen.

Aber wie Spi­der­mans Onkel Ben schon sagte: “Mit großer Macht kommt große Ver­ant­wor­tung”. Wie Sam Alt­man, der CEO von Open AI, warnte, birgt die Entwick­lung von AGI ern­sthafte Risiken…

Schlagwörter: