Künstliche Intelligenz (KI) kann immer mehr: Mittlerweile sogar Texte schreiben, die verblüffend gut gemacht sind und Sinn ergeben – da sogar der Stil einzelner Autoren nachgeahmt werden kann. Doch die neueste Erfindung kann sogar programmieren und HTML-Code auswerfen. Intelligent ist GPT-3 trotzdem nicht.

Die amerikanische Firma OpenAI hat ein KI-System namens GPT-3 entwickelt, das selbst erfahrene Experten vom Hocker haut. “Die größte Sache seit Bitcoin“, schreibt ein Experte. Denn GPT-3 ist ein System, das auf Knopfdruck Texte generiert, die einfach nur “rund” sind. Es gibt keine Hinweise, dass ein KI-System diese Texte geschrieben hat. GPT-3 kann zum Beispiel Artikel schreiben. Oder Rezensionen. Pressetexte. Tweets. Das System weiß genau, welche Regeln in einem Genre gelten.

Es ist zum Beispiel möglich, eine Rezension von einem Buch oder einem Film anzufangen – und die KI bringt das zu Ende. Die KI merkt, ob man eher positiv oder eher kritisch schreiben möchte. Trägt die nötigen Daten zusammen. Und spuckt einen Text aus. Oder ein Märchen – etwa dieses Märchen hier. Nur den ersten Satz hat ein Mensch geschrieben – den Rest die KI.

GPT-3 kann aber auch Fragen beantworten. “Welche Pille schluckt Neo in The Matrix?”. Die KI “versteht” Texte: Man gibt dem System ein Buch zu lesen oder einen Artikel – und kann danach Fragen stellen. „Wer ist der Held der Geschichte?“ „Wieso ist Maria so traurig?“ „Was hat das Ferienhaus gekostet?“ Es ist gespenstisch.

KI-Systeme lernen durch Beispiele

GPT-3 ist ein neuronales Netzwerk mit 175 Milliarden “Synapsen”. Diese werden ständig nachgebessert und trainiert, das System lernt selbst. Dazu bekommt es jede Menge zu lesen: Wikipedia-Artikel, Zeitungen, Zeitschriften, Radiobeiträge, Tweets, Posts, Literatur – die KI konsumiert massenhaft Texte, analysiert sie, erkennt Muster und lernt daraus.

Auf diese Weise kann GPT3 dann tatsächlich den Stil von Autoren Imitieren oder von bestimmten Medien oder Zeitungen.

Am Ende entsteht keine Intelligenz: Es entsteht ein perfekt analysiertes Abbild der Welt. Und die KI zeigt auch Schwächen auf. Wenn GPT3 Tweets schreiben soll, sind diese häufig rassistisch, antisemitisch oder sexistisch. Warum? Weil das auf Twitter nun mal häufig so besprochen wird.

Robot finger touching a laptop computer with AI text. Artificial intelligence in futuristic technology concept, 3d illustration

Missbrauch satt denkbar

Die Risiken liegen im Missbrauch. Wenn solche KI-Systeme einsatzbereit sind, und das wird schon bald der Fall sein, werden mit Sicherheit nicht nur freundliche Bots in Shops zur Verfügung stehen. Es wird auch Bots geben, die Rezensionen fälschen, die auf Drittplattformen twittern und posten, sogar Artikel veröffentlichen. Das Netz lässt sich fluten mit „Content“ jeder Art – und so lässt sich der Diskurs beeinflussen.

Da das neue KI-System sogar den Stil von Autoren nachahmen kann, lassen sich Zitate oder Äußerungen so geschickt fälschen, dass sie glaubwürdig und echt klingen – und es einiger Recherche bedarf, um die Fälschung aufzudecken. In der Zeit, die das braucht, sind 100 weitere Texte generiert und veröffentlicht.