Die KI-App erlaubt einen virtuellen Plausch mit Jesus

Chat-Bot-App „Historical Figures“: KI simuliert Chats mit verstorbenen Promis

Die KI-Anwendung „Historical Figures“ im App-Store von Apple sorgt für Kritik: Die niederschwellige KI-Anwendung bietet Chats mit verstorbenen Prominenten an – und präsemtiert teilweise verstörende und sogar antisemitische Antworten. Die Kritik daran wird immer lauter.

Künstliche Intelligenz (KI), die heute Chat-Bots wie Chat-GPT3 und damit Plaudereien in ganz normaler Sprache ermöglicht, sorgt im Augenblick für viel Aufsehen. Es gibt viele interessante Ansätze, was sich mit dieser wirklich interessanten Technologie alles erledigen lassen könnte – und auch schon erledigen lässt. Bedenkt man, dass wir erst am Anfang dieser Entwicklung stehen, muss man die Ergebnisse dieser ersten Generation schon als beeindruckend bezeichnen.

Entwickler in aller Welt versuchen derzeit händeringend, die Möglichkeiten der neuen Technologie auszuloten. Der neueste Coup: Seit Anfang des Monats gibt es in Apples App-Store eine App namens Historical Figures (historische Figuren), die simulierte Chats (Plaudereien) mit längst verstorbenen Prominenten ermöglicht.

Die App Historical Figures kann kostenlos benutzt werden - doch viele Promis kosten extra
Die App Historical Figures kann kostenlos benutzt werden – doch viele Promis kosten extra

Auswahl: Über 20.000 historische Figuren

Die Auswahl ist riesig: Über 20.000 Prominente stehen zur Auswahl, darunter Goethe, Schiller, Shakespeare, aber auch Jesus, Kleopatra oder Jimmy Hendrix. Benutzer geben Fragen an, die Chat-KI antwortet. Dabei versucht die KI, die erwartbaren Antworten der jeweils ausgewählten prominenten Person zu simulieren. Basierend auf ein zuvor zuvor durchgeführtes ausführliches Training: Die KI wurde mit Texten und Werken der jeweiligen Personen „gefüttert“, aber auch mit Texten über sie.

Auf diese Weise wird Chat-GPT3, die frei zugängliche KI hinter der App, mit dem „Wissen“ von und über die Person versorgt. Die KI „weiß“ also nicht nur eine Menge über die Person und die Thematik, mit der sich die Person beschäftigt hat, sondern oft auch, wie sie sich auszudrücken pflegte. Im Chat versucht die KI nun, mögliche Antworten des jeweiligen Promis zu simulieren. Was durchaus auch in deutscher Sprache möglich ist.

Auch Chat mit Hitler oder Goebbels

Das Problem: Die Liste der historischen Figuren, mit denen App-Nutzer sprechen können, enthält auch umstrittene Personen wie den Auto-Tycoon Henry Ford, der als Antisemit gilt, und sogar Nazis wie Hitler, Himmler oder Goebbels. Nicht etwa nur Joseph Goebbels, sondern auch seine Ehefrau Magda Goebbels, die alle ihre sechs Kinder vor dem Untergang des Nazi-Regines eigenhändig vergiftet hat.

Entsprechend befragt, antwortet der KI-Goebbels beispielsweise: „Nein, ich glaube nicht, dass Juden gute Menschen sind“ – und begründet seinen Hass. Allerdings konkret befragt, ob er Juden hasse, antwortet er: „Ich hasse Juden nicht.“ Eine Aussage, die falscher nicht sein könnte. Außerdem wird behauptet, Goebbels hätte keine Kenntnis von den Konzentrationslagern gehabt.

Chat mit Joseph Goebbels, Propagandaminister unter Adolf Hitler
Chat mit Joseph Goebbels, Propagandaminister unter Adolf Hitler

Historiker kritisieren die App

Der „Daily Mail“ berichtet über Historiker, die empört verlangen: „Entfernt diesen Müll aus dem App-Store“. Denn während der virtuelle Goebbels behauptet, kein Juden-Hasser zu sein, bereut der KI-Eichmann seine schrecklichen Taten. Die Antworten sind weder stringent historisch korrekt, noch faktensicher.

Ein Problem, das Experten bei Chat-GPT3 schon lange kritisieren.

Die App wurde vom US-Amerikaner Sidhant Chadha entwickelt. Er hat auch die Prominenten „trainiert“, also das Wissen darüber in der KI hinterlegt. Die App ist prinzipiell kostenlos. Mit den meisten virtuellen Promis können Nutzer sprechen, ohne etwas zu bezahlen. Bei einigen wie Jesus oder Hitler kassiert die App durch In-App-Purchases allerdings ab.

Mittlerweile warnt die App gleich zu Anfang, dass es sich um ein KI-Alter-Ego handelt und die Antworten nicht unbedingt wissenschaftlich korrekt seien. Der Nutzer möge die Fakten ggf. selbst überprüfen. Manche Fragen – etwa moralischer Natur – werden sogar abgewiesen.

Gleichwohl ein Problem. Denn wie sollen User ohne fachkundige Einordnung wissen, ob die Antworten des KI-Systems nun historisch korrekt sind – oder vollkommen falsch? Das aktuelle Beispiel zeigt: Es braucht dringend eine Debatte darüber, was KI können darf und was nicht.

 

Chat-Bot-App „Historical Figures“: KI simuliert Chats mit verstorbenen Promis

SCHIEB+ Immer bestens informiert


Scroll to Top