KI-Systeme brauchen Regeln - und müssen im Zweifel auch kontrolliert werden

Wieviel Regulierung braucht KI?

In den letzten Wochen ist wohl jedem klar geworden: KI ist gekommen, um zu bleiben. Wir werden mit KI-Systemen leben müssen, die alles Mögliche machen: Daten analysieren, Entscheidungen treffen, Dinge kontrollieren oder auch Medien erstellen. Wieso gibt es überhaupt die Forderung, so etwas zu kontrollieren oder regulieren?

Künstliche Intelligenz ist derzeit das Thema schlechthin. Alle reden über ihre Erfahrungen mit KI, sei es nun ChatGPT, der Chatbot, oder das Erstellen von Bildern mit Hilfe von KI, indem ein paar Wörter eingetippt werden: „Fröhliche Erdbeere winkt trauriger Biene zu!“. Mit KI ist eine Menge möglich. Mit KI lassen sich auch Inhalte generieren. Interviews etwa, die dann eine Zeitschrift wie „Die Aktuelle“ einfach abdruckt – so als ob Formel-1-Weltmeister Schumacher ein Interview gegeben hätte.

Oder eben Bilder, die täuschend echt aussehen, und immer weniger von echten Aufnahmen zu unterscheiden sind. Wie damit umgehen? Sollte KI reguliert werdne? Ist das sinnvoll – oder möglicherweise kontraproduktiv?

Einfache Antwort: Die Möglichkeiten von KI scheinen grenzenlos. Das Tempo, mit dem sich KI derzeit weiter entwickelt, ist rasant. Anders als bei Algorithmen – also Computerprogrammen –  ist es bei KI so, dass KI-Systeme nicht programmiert werden. Sie werden trainiert und sind selbstlernend. Irgendwann verlieren die Menschen den Überblick, wie diese Systeme eigentlich funktionieren und was sie machen.

Das stellt ein Risiko dar: Wenn der Mensch nicht mehr versteht, was da abläuft, kann er auch nicht mehr eingreifen und auch keine Verantwortung übernehmen. Hinzu kommt: KI-Systeme werden schon bald derart komplex sein, dass wir Menschen sie sowieso nicht mehr verstehen. Auf so etwas müssen wir vorbereitet sein. Schon allein deshalb braucht es Regeln. Sagt auch der Deutsche Ethikrat, der sich um Auftrag der Bundesregierung intensiv mit diesen und ähnlichen Fragen beschäftigt hat. Auch, was die Verdrängung von Arbeitsplätzen betrifft.

Wer weiss schon, wie KI funktioniert?
Wer weiß schon, wie KI funktioniert?

Wie könnte Regulierung aussehen?

Aber wie kann so eine Regulierung aussehen: Wie ist sichergestellt, dass sich die Betreiber solcher KI-Systeme an solche Regeln halten?

Das ist eine sehr berechtigte Frage. Denn KI wird vor allem in den USA und in China entwickelt. Die Bereitschaft, sich an deutsche oder europäische Regeln zu halten dürfte da eher gering ausfallen. Eine Möglichkeit könnte sein, wenigstens die schlimmsten möglichen Folgen auf UN-Ebene zu regeln. Etwa, dass KI dem Menschenwohl dienen soll, nicht für Kriegszwecke eingesetzt wird etc.

Es wird aber lange dauern, bis es solche Vereinbarungen gibt. Es gibt außerdem ein weiteres Problem: Nicht der Einsatz von KI ist schwierig, sondern nur das Training. Einen Chatbot wie ChatGPT zu entwickeln und zu trainieren erfordert enorme Ressourcen, doch ChatGPT laufen zu lassen, das kann fast jeder. Da reicht ein Server oder PC. Deshalb sind Regeln und Einschränkungen kaum einzuhalten oder zu kontrollieren.

Auch für KI braucht es Regeln
Auch für KI braucht es Regeln

Mit KI erstellte Inhalte kennzeichnen

Apropos ChatGPT: Kommen wir mal auf Inhalte zu sprechen, die mit KI erstellt werden. Durch KI erzeugte Inhalte, ob Fotos, Videos, Audios oder eben auch Texte sind im Zweifel nicht sofort als künstlich erzeugt zu erkennen. Welche Form von Regulierung brauchen wir also, eine Kennzeichnungspflicht?

Das ist häufig zu hören: Durch KI erzeugte Inhalte sollen gekennzeichnet sein. Das klingt auf den ersten Blick erst mal plausibel und richtig. Wenn das Foto des Papst in Luxusklamotten ein Wasserzeichen hat, das die Herkunft KI eindeutig belegt, dann ist man wenigstens gewarnt. Aber das muss man zu Ende denken. Erstens kann so eine Kennzeichnung abgeschnitten werden – oder möglicherweise mit Gegen-KI auch entfernt.

Und machen wir uns nichts vor: Kein Betrüger der Welt wird freiwillig eine Kennzeichnung in seinen künstlich erzeugten Medien einarbeiten lassen. Und da viele KI-Systeme frei zugänglich sind, kann sie auch jeder benutzen – und bestimmen, wie. Es ist unmöglich, alle KI-Systeme so abzuschotten, dass man sie entweder nur mit Kennzeichnung verwendet oder gar nicht – selbst wenn man sich weltweit darauf verständigen sollte, was nicht passieren wird.

Aber irgendwas müssen wir doch machen!?

Das stimmt: Viel sinnvoller wird es aus meiner Sicht auf Dauer wohl sein, echte Inhalte zu kennzeichnen: Fotos von Agenturen, Fernsehbilder von seriösen Sendern, Texte, die von Menschen erstellt wurden. Dann haben die Menschen eine Orientierung. Glauben müssten sie es erst mal.

Es gibt jetzt schon einen Badge „Created by human“, den man an seine Inhalte pappen kann (wir hier bei schieb.de haben den Badge rechts in der Spalte=, um zu zeigen: Seht her: Ich mache meine Inhalte noch selbst, ob Texte, Audios, Videos oder Fotos. Ein nächster Schritt wird sein, technische Mittel als Echtheitszertifikat einzuführen –wie das gute alte Siegel. Dann werden Texte, Audios, Fotos und Videos aus offiziellen, seriösen Quellen gekennzeichnet.

Wenn man das mit der Blockchain macht, ist das auch fälschungssicher. Dann wären wenigstens die wichtigen Dinge, etwa eine offizielle Rede, als „echt“ zu identifizieren – und bei allen anderen Inhalten bestünden zumindest schon mal berechtigte Zweifel. Wir werden nach Lösungen suchen müssen. Und wir alle müssen medienkompetenter werden und alles kritisch hinterfragen. Selbst angebliche Interviews.

 

SCHIEB+ Immer bestens informiert

Schieb+ Tarife
Nach oben scrollen