OpenAI hat angekündigt, ein System zur Erkennung von mit KI erzeugten Inhalten zu bauen. Und die EU untersucht offiziell, ob Meta genug gegen Desinformation unternimmt.
Super-Wahljahr und Social Media
Dieses Jahr ist ein Super-Wahljahr. Es ist Europawahl, aber auch den USA finden Wahlen statt und in einiges Bundesländern bei uns. Da kommt es ganz besonders darauf an, dass die Bürger, die Menschen gut und vor allem richtig informiert werden.
Doch das Gegenteil ist der Fall. In den sozialen Netzwerken kursieren so viele Falschnachrichten wie noch nie. Viele mit der Absicht, Stimmung zu machen – vor allem gegen Europa. Die EU-Kommission hat deswegen jetzt ein Verfahren gegen den Meta-Konzern eröffnet.
Wegen der Inhalte. Und dann ist da auch noch KI, die es leichter macht denn je, Fake-News zu erstellen.
Ein schwieriger Fall.
EU-Kommission hat Verfahren gegen Meta-Konzern eröffnet
Die EU-Kommission hat in diesem Zusammenhang vor kurzem ein Verfahren gegen Meta eröffnet, den Mutterkonzern von Facebook und Instagram.
Die EU-Kommission will prüfen, ob sich das US-Unternehmen an europäische Regeln gehalten hat. Ob Meta die Verbreitung von irreführender Werbung im politischen Umfeld und vor allem Desinformationskampagnen in der EU ausreichend und schnell genug bekämpft.
Seitdem der Digital Services Act (DSA) ist, gibt es klare Regeln dafür – und auch rigide Strafen, wenn sich ein Unternehmen nicht an diese Regeln hält.
Weiterer Punkt: Es wird geprüft, ob es wirklich ausreichende und auch ausreichend einfache Möglichkeiten auf den Plattformen gibt, damit sich User über einzelne Beiträge oder wiederholt Fake und Desinformation verbreitende Konten beschweren können. Beides verstieße eindeutig gegen den Digital Services Act.
Eine wichtige Untersuchung, denn wir wissen alle, dass auf Facebook, Instagram und TikTok jede Menge Desinformation kursiert; vor allem solche, die den gesellschaftlichen Frieden stören und die Wahlen beeinflussen soll.
Was tun gegen Desinformation?
Der Meta-Konzern unternimmt bislang (zu) wenig. Doch aufgrund der zunehmend strengen Richtlinien in Europa kommt einiges in Bewegung. Metas Ingenieure zum Beispiel arbeiten daran, mit Hilfe von KI erstellte fotorealistische Aufnahmen – und nur hier besteht ein Risiko der Verwirrung oder Täuschung – mit geeigneten technischen Maßnahmen, unter anderem mit KI, automatisch zu erkennen und zu kennzeichnen.
Obwohl Deepfakes heute oft verblüffend echt aussehen, ist das oft gar nicht so schwierig, wie es sich anhört. Viele KI-Systeme, die Fotos erzeugen, markieren die erstellten Bilder (unsichtbar) schon jetzt automatisch.
Das machen KIs wie Midjourney, Dall-E3, Artbreeder, Dream und viele andere. Sie kennzeichnen die erzeugten Bilder sowohl durch entsprechende Angaben in den Metadaten der Bilder als auch durch unsichtbare Wasserzeichen.
OpenAI hat diese Maßnahme erst Mitte Februar eingeführt. Sie sollen ab Mai – also jetzt – in Facebook eine Kennzeichnung „Made with AI“ erhalten; später auch auf Instagram. Noch ist das nicht am Start.
Verantwortung der Konzerne
Die großen Anbieter von KI haben da durchaus Verantwortung.
Insbesondere OpenAI unternimmt einiges. OpenAI hat bereits vor Monaten eingeführt, dass mit Dall-E3 erstellte Bilder über eine Kennzeichnung verfügt. Bei Midjourney ist es genauso.
Aber das reicht natürlich nicht. Denn Menschen, die täuschen wollen, die entfernen solche Kennzeichnungen natürlich.
Deshalb arbeitet OpenAI aktuell an einem System, am Ende ebenfalls KI, das mit KI generierte Inhalte erkennen kann.
Eine Art KI-Detektor. Dieses System befindet sich allerdings noch in der Testphase. Aktuell können Wissenschaftler damit experimentieren. OpenAI will noch etwas Feedback, damit das System gut funktioniert.
Mit einem solchen Detektor könnten dann Social-Media-Netzwerke arbeiten, aber auch wir alle, wenn wir bei der Betrachtung eines Bilds oder Videos nicht sicher sind ob echt oder nicht.
Das lässt sich nur schwer in den Griff bekommen
Die automatische Kennzeichnung der durch KI erzeugten Inhalte ist ein sinnvoller Schritt; allerdings kein „Game Changer“.
Systeme, die mit KI generierte Inhalte schnell und zuverlässig erkenne können, ist eine gute Idee. Das endet am Ende aber vermutlich bei einem Katz-und-Maus-Spiel: Wer erkennt besser, wer versteckt besser.
Das eigentliche Problem ist die schiere Masse der gezielten Desinformation und Manipulation. Es gibt zu wenig Abwehr solcher Inhalte. Das nutzen vor allem russische Akteure aus.
Soziale Netzwerke sind heute die Öffentlichkeit. Es wäre früher undenkbar gewesen, solche Propaganda in die Zeitungen oder ins Radio zu bekommen. Doch über Social Media zu manipulieren ist kinderleicht und extrem günstig. Das muss aufhören.
Es geht also nicht, ohne den Menschen die nötigen Fähigkeiten zu vermitteln. Jeder Wähler muss wissen, dass manipuliert wird – und wie.