Wann ist KI schlauer als wir?

von | 08.12.2023 | KI

Chatbot, ChatGPT, KI: Begriffe, die man heute niemandem mehr erklären muss. Nun kommt mächtig Schwung in das KI-Business – und es stellt sich die Frage: Wann ist KI schlauer als wir? Eine Annäherung an die Antwort.

Heute muss man diese Begriffe wohl niemandem mehr erklären, denn das Thema boom – und jeder hat schon mal davon gehört. Vor rund einem Jahr trat ChatGTP auf die Bildfläche.

Inzwischen hat jede und jeder Dritte in Deutschland nach Untersuchungen des Branchenverband Bitkom bereits schon mal mit ChatGPT experimentiert. ChatGPT ist das mit Abstand populärste und bekannteste KI-System. Der Chatbot antwortet auf Fragen, kann Texte generieren, den Sprachstil wechseln, Webseiten programmieren – total faszinieren und verblüffend.

Doch wer damit arbeitet oder herumprobiert merkt schnell die Grenzen, oft muss man noch nachbessern oder wird vom Chatbot falsch verstanden. Noch! Wie schnell ändert sich das und wann sind KIs wohlmöglich schlauer als wir?

OpenAI will AGI entwickeln

Jedenfalls ist genau das das erklärte Ziel von OpenAI. Man kann auf der Webseite des Unternehmens nachlesen, dass OpenAI an einer AGI (Artificial General Intelligence) arbeitet. Umgangssprachlich gesprochen eine KI, die schlauer und schneller ist als wir.

Vor zwei, drei Jahren haben die meisten Wissenschaftler und KI-Experten noch gesagt: Das dauert noch mindestens 80 bis 100 Jahre, bis es so weit sein könnte. Doch der aktuelle KI-Hype hat auch diese Annahmen verschoben.

Mittlerweile sagen viele, es könnte schon in den nächsten fünf Jahren so weit sein. Es gibt allerdings auch andere Stimmen, die das nicht so sehen. Wichtig: Ob und wann eine KI kommt, die so schlau oder schlauer ist als wir, dazu gibt es noch keine Fakten, sondern nur Theorien, Ankündigungen und Einschätzungen. Doch man kann sagen: Das Tempo, in dem KI sich derzeit entwickelt, ist rasant.

Wie sich ChatGPT in den letzten 12 Monaten entwickelt hat

Die Fortschritte in diesem einen Jahr sind wirklich bemerkenswert. ChatGPT kann mittlerweile deutlich umfangreichere Texte erstellen als noch vor einem Jahr. Auch ist es mittlerweile auch serienmäßig möglich, das aktuell Netz durchsuchen zu lassen – der Chatbot ist also nicht mehr in der Vergangenheit verhaftet. Ein großer Vorteil.

Auch kann man mit ChatGPT jetzt richtig sprechen – zumindest in der App: Ich kann meine eigene Stimme benutzen und mit den Händen frei mit dem Bot sprechen. Und die Antworten werden auch gesprochen. Fast schon wie ein Dialog zwischen Kollegen oder Freunden.

Das funktioniert schon recht gut. Außerdem kann ChatGPT jetzt auch Bilder/Fotos „verstehen“: Wenn ich ein Foto von einem Gegenstand hochlade zB, den ich im Haushalt gefunden habe, sagt mir ChatGPT, was das sein könnte. Habe ich selbst schon von profitiert: Ich hatte eine merkwürdige Drahtbürste gefunden und war nicht mehr sicher, was man damit machen kann. ChatGPT hat’s mir gesagt: Grillroste reinigen…

ChatGPT kann Situationen „verstehen“

Okay, aber das heißt doch auch: Chat-GPT ist vielleicht doch schon schlauer als ein Mensch?

In meinem Beispiel mit der Bürste kann man sagen: ChatGPT war sich zwar auch nicht sicher, war aber definitiv auf der richtigen Fährte. Ich habe das schlecht vergessen – oder hätte die Schwarmintelligenz nutzen und alle anderen im Haushalt fragen müssen. Irgendwer hätte es schon gewusst.

Aber in diese Richtung geht’s: KI weiß viel, vergisst nichts und ist sehr schnell. : Wenn ich ChatGPT ein Foto zeige, etwa von einer Trauergemeinde oder einer Party, sagt die KI nicht nur: „Fröhliche Menschen mit Ballons oder Menschen in dunkler Bekleidung, die trauert“, sondern „versteht“ auch schon, was damit verbunden ist. Wenn ich dann frage, etwa beim Bild mit der Trauergemeinde, was als nächstes passiert oder ob die gleich eine Party feiern – sagt ChatGPT, dass die Trauergemeinde als Nächstes die mitgebrachten Blumen ins Grab wirft – und dass es sehr ungewöhnlich wäre, im Anschluss eine laute Party zu feiern.

Das zeigt: Die KI hat eine Vorstellung von der Situation. Anderes Beispiel: Ein Foto, in dem ein kleines Kind 30 Gas befüllte Ballons im Freien in der Hand hält. Natürlich kann die KI beschreiben, was auf dem Bild zu sehen ist. Doch wenn ich frage: „Was passiert, wenn das Kind die Kordeln loslässt“, antwortet ChatGPT: Die Ballons fließen davon.

KI kann heute eine Trauergemeinde erkennen - und kennt die Abläufe

KI kann heute eine Trauergemeinde erkennen – und kennt die Abläufe

Zusammenhänge wurden nur indirekt trainiert

Versteht die KI denn wirklich die Zusammenhänge, oder hat man ihr einfach eingetrichtert, was welches Bild bedeutet? Bei einer Vorstandsitzung von einem Dax-Konzern tragen auch viele Schwarz und es gibt vielleicht nen Blumenstraus für jemand?

Niemand hat der KI explizit „eingetrichtert“, dass Menschen in Schwarz und mit Blumen in der Hand und trauriger Mine auf einer Beerdigung sind.

Das hat sich ChatGPT beim Training selbst erschlossen: Tausende Artikel mit Unterschriften und Texten. Dann kombiniert das KI-Modell das mit Geschichten, Romanen, Gedichten etc., die trainiert wurden – und schon „versteht“ das KI-Modell, um welche Situationen es sich handelt. Der Mensch lernt genauso. Das lernen wir nicht in der Schule, sondern durch Erleben. Durch Muster,

Das Beispiel belegt, dass ChatGPT die Situation versteht. Und zwar schon deutlich mehr, als ein kleines Kind wüsste. Das ist eine Vorstufe zur AGI zur allgemeinen Intelligenz.

Das sagt auch die Wissenschaft. In einer anderen Studie aus dem Jahr 2022 haben Forscher der Stanford University herausgefundendass KI-Modelle, die in der Lage sind, Situationen in Fotos zu erkennen, auch in der Lage sind, komplexere Aufgaben zu erfüllen.

Was passiert mit den Ballons, wenn die Kordeln losgelassen werden?

Was passiert mit den Ballons, wenn die Kordeln losgelassen werden?

Was ist AGI (Artificial General Intelligence)

Eine (frühe) Vorstufe ist also schon erreicht. Aber was versteht man denn eigentlich unter Allgemeiner Intelligenz oder AGI?

AGI ist nur der englische Begriff dafür („Artificial General Intelligence“) unter Allgemeiner Intelligenz verstehen wir eine weit entwickelte Form der künstlichen Intelligenz, die das Verständnis, das Bewusstsein und die kognitive Fähigkeit eines menschlichen Wesens erreichen oder übertreffen kann.

Einfacher gesagt, wir beide können uns auf ein Gespräch konzentrieren, gleichzeitig kann ich aber nach meiner Tasse Kaffee greifen, Du auf dem Handy einen Anruf ablehnen oder direkt nach dem Gespräch über Abendsessen nachdenken oder Deinen Schreibtischstuhl reparieren, Verschiedene, im Prinzip hochanspruchsvolle Aufgaben, die wir aber alle ausführen können.

Wir sind Allgemeine Intelligenzen. Im Gegensatz zu sogenannter spezialisierter oder „schwacher“ KI, die darauf ausgerichtet ist, ganz spezifische Aufgaben durchzuführen, wie z.B. Spracherkennung oder Spielen von Schach, wäre eine AGI in der Lage, jede intellektuelle Aufgabe zu erfüllen, die ein Mensch kann.

Multimodalität: Texte, Audios und Bilder

Okay aber Chat GPT und auch einige andere KIs können doch schon verschiedene Aufgaben erfüllen, zum Beispiel ein Gedicht schreiben oder Webseiten zusammenfassen, das ist doch was ganz unterschiedliches?

Ein Gedicht schreiben ist keine eigene Diszplin: Hier geht es um Texte verstehen und generieren. ChatGPT kann aber heute mehr als noch vor einem Jahr und ist daher „multimodal“, aber noch vergleichsweise weit davon entfernt, jede intellektuelle Aufgabe zu meistern.

ChatGPT und vergleichbare Systeme können das vorhandene Wissen nicht einfach auf eine völlig neue Situation übertragen und kreative Lösungen entwickeln, Eine AGI könnte das und würde auch dazu lernen. Außerdem könnte eine AGI Ziele und Absichten entwickeln. Das können bisherige KI-Systeme nicht mal ansatzweise.

Noch sind alle KIs auf spezielle Aufgaben konzentriert. Gesichter erkennen, Scores berechnen, Texte generieren, Bilder generieren, Audios erzeugen… In Zukunft werden immer mehr Fähigkeiten verknüpft. Wenn die auch noch autoamtisch von der Software angewendet werden.

Dann bekommen wir wahrscheinlich eine AGI. Noch einen Schritt weiter ist eine sogenannte Superintelligenz, eine KI, die nicht nur alle menschlichen kognitiven Fähigkeiten übertreffen, sondern auch besser als die besten menschlichen Gehirne in praktisch allen Feldern sein könnte

Dafür bräuchte es aber erstmal eine AGI, die dann noch weiter entwickelt wird. Diese Form der Intelligenz ist ein beliebtes Thema in der Science-Fiction und in Diskussionen über zukünftige KI, sie ist jedoch zum aktuellen Zeitpunkt rein spekulativ und in der Praxis noch nicht existiert.

ChatGPT kann hören, sprechen, verstehen, texten und Bilder generieren

ChatGPT kann hören, sprechen, verstehen, texten und Bilder generieren

Was ist dann eine „Superintelligenz“?

Da ist dann doch auch immer wieder davon die Rede, dass so eine KI, die schlauer ist als wir, gefährlich wäre für die Menschheit?

Ja, die Gefahr sieht man nicht nur in der Science Fiction, die wurde und wird auch ganz real diskutiert, auch von namenhaften Wissenschaftlern –

Ohne jede Frage birgt eine AGI/Superintelligenz enorme Chancen und Risiken zugleich. Herausforderung bei einer AGI ist: Sie entwickelt per Definition schneller neue Lösungen und Konzepte als wir als Menschen sie kontrollieren und überprüfen können. Es braucht also strenge Sicherheitsnetze. Niemals dürfte eine solche KI in die Lage versetzt werden, eigenständig Dinge zu entscheiden oder zu bewegen.

Gesetzliche Regelungen

Die EU hat schon KI-Gesetze vorgelegt: Sie sollen sicherstellen, dass KI-Systeme in der EU sicher, transparent und vertrauenswürdig sind. Vieles davon fordert auch die vom Bundestag eingesetzte Ethikkommission. Es braucht also strenge Regeln für eine solche leistungsfähige KI. Allerdings weltweit.

Die Chancen sind gering, dass solche KI-Systeme in Deutschland oder Europa entwickelt und betrieben werden, eher in USA oder China. Deshalb müssten solche Regeln international gelten, so wie beim Atomabkommen. Doch leistungsfähige KI könnte Probleme lösen, die wir nicht gelöst kriegen. So hat KI im vergangenen Jahr – Deepmind von Google – mehr neue Materialien gefunden als Wissenschaftler in Jahrhunderten.

Aber wollen wir das?

Viele finden schon. Die Wissenschaft ist geteilter Ansicht: Die einen sehen die ungeheuren Chancen, andere vor allem die Risiken. Holger Hoos, Professor für Methodik der Künstlichen Intelligenz an der RWTH Aachen zum Beispiel hat in diesem Punkt eine klare Meinung. „Forschung, die sich zum Ziel setzt, heutzutage AGI zu erzeugen, gehört verboten. Punkt.“

Das sagte er in einer Expertenrunde. Der Grund sei, dass „wenn wir AGI erreichen, wir als Gesellschaft nicht bereit sind, damit auch nur annäherungsweise verantwortungsvoll umzugehen.“ Es gebe Grenzen, über die man derzeit einfach nicht hinausgehen sollte. AGI und Superintelligenz werden kommen. Die Frage ist in der Tat, ob wir alle darauf vorbereitet sind.

Schieb App