Generative KI: Das endgültige Ende der Wahrheit?

von | 29.07.2023 | Digital

KI kann nicht nur analysieren, sondern auch generieren: ChatGPT erstellt Texte, Midjourney Bilder und ElevenLabs Audios. Selbst Videos können KI-Systeme heute erzeugen. Was ist noch wahr – und was kann man noch glauben?

Fakt ist: Fake-Meldungen verbreiten sich schneller als wahre, seriöse Nachrichten.

Ein Grund: Die Algorithmen, die bestimmen, welche Nachrichten uns in den Sozialen Medien ausgespielt werden, kümmern sich nicht um Wahrheitsgehalt oder Allgemeinwohl, sondern interessieren sich für maximale Erregbarkeit des Publikums. „Erregungsökonomie“ wird das genannt – Fake News, meist überspitzte oder schockierende Nachrichten, triggern die User, sorgen für eine maximale Performance und fahren somit auch einen hohen Profit ein.

GAN: KI-Systeme trainieren sich gegenseitig

GAN: KI-Systeme trainieren sich gegenseitig

Generative KI

Hinzu kommt: Mit generativen Künstlichen Intelligenzen (KI) wie ChatGPT, Midjourney, D-ID und Co. lassen sich nicht nur Fake News sondern Fake Content jeder Art im Blitztempo erzeugen – und das von sprichwörtlich jedem.

Eine gefährliche, unheilvolle Entwicklung. Denn wir wissen ganz genau, wie wirkmächtig Informationen und Desinformationen sind – damit lässt sich das Weltgeschehen maßgeblich beeinflussen: So behauptete der damalige US-Außenminister Colin Powell im Jahr 2003 vor den Vereinten Nationen, der Irak besitze Massenvernichtungswaffen.

Als Beleg präsentierte er dem Sicherheitsrat Satellitenaufnahmen, Tonaufzeichnungen und Augenzeugenberichte. Später stellte sich heraus, dass die Belege manipuliert wurden. Powell entschuldigte sich – und dennoch kann diese Rede, die auf Fehlinformationen und manipuliertem Bild- und Tonmaterial basierte, als Auftakt des Irak-Krieges verstanden werden.

Was vor einigen Jahren nur im Laborbetrieb möglich war, geht heute theoretisch an jedem Laptop mithilfe eines AI-Tools.

Deepfakes: Texte, Bilder, Audios und Videos aus der KI - technisch immer besser

Deepfakes: Texte, Bilder, Audios und Videos aus der KI – technisch immer besser

Generative KI erzeugt Fake-News-Material auf Knopfdruck

So kann heute praktisch jeder Beweise fälschen: Fotos von angeblichen Treffen, vermeintlich abgehörte Gespräche, vertrauliche Worte – all das lässt sich in guter Qualität mit Hilfe von Künstlicher Intelligenz herstellen. Dazu braucht es weder eine besondere Ausbildung, noch sonderlich viel Kapital: ChatGPT formuliert die Texte und kann dabei täuschend echt den gewünschten Schreibstil nachahmen.

Auch Fotos können von KI-Modellen wie Midjourney oder Stable Diffusion erstaunlich realistisch gefälscht werden. Andere KI-Systeme sprechen auf Wunsch mit der Stimme jedes Menschen auf dem Planeten. Es braucht nur wenige Sätze, um die KI zu trainieren. Und was noch vor wenigen Monaten künstlich klang, ist heute – zumindest in englischer Sprache – schon verblüffend nah an der Realität.

Wenn wir nicht aufpassen, kann generative KI eine unheilvolle Entwicklung in Gang bringen. Nicht etwa, weil die KI-Systeme das wollten oder dafür gemacht wären, sondern weil Menschen es ihnen abverlangen.

Weil irgendwo auf der Welt Menschen die wahrlich beeindruckenden Möglichkeiten der KI nutzen, um sich zu bereichern, um Macht auszuüben und Schaden anzurichten. Schon geraten die vielen positiven und beeindruckenden Fähigkeiten von KI ins Hintertreffen.

ChatGPT ist schon länger am Start - und bekommt jetzt Konkurrenz

ChatGPT ist schon länger am Start – und bekommt jetzt Konkurrenz

Der Paradigmenwechsel

Fotos, Videos und Audios hatten bislang einen höheren „Trust“, das heißt mehr Glaubwürdigkeit als aufgeschriebene Worte: Wer ein Foto sieht, ist eher bereit etwas zu glauben. Wer etwas mit eigenen Augen sieht oder mit eigenen Ohren hört, ist nur noch schwer davon zu überzeugen, dass etwas anders gewesen sein könnte. Diese Glaubwürdigkeit wird durch den Missbrauch von KI zur Erstellung von Deepfakes untergraben.

In der Folge werden wir unseren Augen nicht mehr trauen. Denn wer will sich schon noch zutrauen, zuverlässig zwischen wahr und falsch zu unterscheiden, wenn Audios, Fotos und Videos nahezu und schon bald absolut perfekt gefälscht werden können?

Da stellt sich eine entscheidende Frage: Was sollen, was können wir noch glauben?

Wir haben diesem Fake-Tsunami bislang nicht wirklich etwas entgegenzusetzen.

Nicht als einzelne User und Medienkonsumenten, aber auch nicht als Gesellschaft. Wir sind einfach nicht darauf vorbereitet. Null.

Von TechCrunch - TechCrunch Disrupt San Francisco 2019 - Day 2, CC BY 2.0, https://commons.wikimedia.org/w/index.php?curid=92008259

Sam Altman

Das Ende der Wahrheit?

Die unvermeidliche Folge: Auch was echt und wahr ist, wird künftig vermehrt angezweifelt.

Und wenn selbst echte Fotos, Audios oder Videos angezweifelt werden (müssen) – wie will man sich da noch orientieren? Selbst vor Gericht wird es zum Umbruch kommen. Denn auch hier könnten Rechtsvertreter vermeintliche Beweise stets mit begründeten Zweifeln anfechten.

KI-Systeme lassen sich nicht mehr einhegen. KI ist kein Plutonium, das nur schwer zu schürfen, transportieren und einzusetzen ist.

Viele KI-Systeme kursieren schon als OpenSource. Jeder kann sie verwenden und anpassen. In der Politik kursieren Vorschläge wie eine Kennzeichnungspflicht. Doch das ist nahezu sinnlos: Da verlieren nur die, die sich dran halten. Kriminelle oder Ideologen würden eine solche Kennzeichnung nie vornehmen – oder sie mit Hilfe von KI-Systemen ruckzuck entfernen, sollte sie automatisch vorgenommen werden.

Was, wenn ein Roboter wie der Chatbot ChatGPT ein Buch liest?

Was, wenn ein Roboter wie der Chatbot ChatGPT ein Buch liest?

Kennzeichnung von echten Inhalten

Viel sinnvoller ist daher eine Kennzeichnung für alles, was vertrauenswürdig ist oder sein soll. Ein Zertifikat für Trust – wie das gute alte Siegel, nur in digitaler Form.

So ein digitales Siegel, für Menschen unsichtbar und unhörbar, ließe sich überall dort hinterlegen, wo es wichtig ist: Dokumente, Geld, Verträge, aber eben auch Fotos, Audios und Videos. Eine unverfälschbare Quellenangabe in Form eines digitalen Wasserzeichens. Ein vertrauensvolles digitales Zertifikat, leicht von jedem zu überprüfen. Kommt das Foto wirklich von dpa, der Film vom WDR, die Tonaufnahme aus dem Kanzleramt? Mit geeigneten Tools ließe sich das kinderleicht und blitzschnell überprüfen.

Technisch wäre das nicht sonderlich aufwändig. Jede Webseite verfügt heute über ein Zertifikat, damit wir sie mit „https“ ansteuern können und die Kommunikation verschlüsselt erfolgt.

Nur muss strukturell künftig alles auf diese Form von Quellen-Check ausgerichtet werden: Anfangs dort, wo es wichtig und relevant ist: Etwa in Redaktionen oder Behörden. Später dann überall, auch im Browser, in Social Media oder Apps.

So wie sich Dateiformate wie JPG, MP3 oder MOV durchgesetzt haben, müssten sich auch die digitalen Zertifikate durchsetzen. Jede und jeder müsste jederzeit sehen, woher ein Foto, ein Audio oder Video kommt – verlässlich.

Standards nötig

Dazu brauchen wir allgemein akzeptierte und gültige Standards, damit nicht jeder Anbieter sein eigenes Süppchen kocht. Wir müssen damit allerdings sofort beginnen, nicht erst in einigen Jahren, wenn es zu spät ist. Vielleicht ist das dann auch eine gute Gelegenheit, endlich alle verbliebenden Faxgeräte in Amtsstuben und Ministerien zu entsorgen.

Selbst einige Insider fürchten sich vor diesen und ähnlichen Szenarien.

Wenn selbst jemand wie OpenAI-Gründer Sam Altman vor zu leistungsfähiger KI warnt und Regulierung einfordert – in welcher Branche kommt so etwas schon vor? –, wird deutlich: Es braucht dringend verlässliche Rahmenbedingungen für den Einsatz von KI.

Denn die unglaublichen Fähigkeiten und Chancen sollten wir nutzen, während Risiken minimiert werden. Das aber geht nur, wenn möglichst international einheitliche Regeln aufgestellt werden – an die sich alle halten, auch Russland und China.

 

Schieb App