Wir sehen im Netz immer häufiger Inhalte, die mit KI erstellt wurden – das kann verwirren und irritieren. Deshalb müssen die Plattformen schon bald KI-generierte Inhalte markieren. Der Meta-Konzern hat Maßnahmen angekündigt,
Die Frage müssen wir uns künftig immer häufiger stellen: Echt – oder mit KI gemacht?
Mit dem Fortschritt künstlicher Intelligenz (KI) werden generierte Fotos in Zukunft immer realistischer aussehen, sodass eine Unterscheidung zwischen echten und gefälschten Bildern möglicherweise kaum noch möglich sein wird. Diese Entwicklung könnte erhebliche Auswirkungen auf Social Media haben.
Das Problem
Da visuelle Inhalte einen großen Einfluss auf die Meinungsbildung und Informationsverbreitung haben, könnten gefälschte Fotos, die von KI-Systemen erstellt wurden, die Glaubwürdigkeit und Vertrauenswürdigkeit von Informationen untergraben. Manipulierte Bilder könnten dazu verwendet werden, falsche Ereignisse oder Situationen zu inszenieren, Persönlichkeiten zu diffamieren oder politische Propaganda zu verbreiten.
Dies könnte zu einer verstärkten Verbreitung von Fehlinformationen und einem Anstieg von Desinformation führen, da die Grenzen zwischen Realität und Fiktion verschwimmen. Es wird eine dringende Notwendigkeit geben, Tools und Mechanismen zu entwickeln, um gefälschte Bilder zu erkennen und die Authentizität visueller Inhalte zu gewährleisten, um die Integrität und Zuverlässigkeit von Informationen in der digitalen Ära zu schützen.
Ob auf Facebook, Instagram, Twitter, Youtube oder TikTok: User posten immer mehr Inhalte, die mit KI erstellt wurden. Und es ist keineswegs immer klar, wer die Inhalte hergestellt hat. Der Einsatz von KI wird immer häufiger.
Kein Wunder, denn es gibt immer mehr KI-Systeme, die in der Lage sind, mehr oder weniger auf Knopfdruck Texte, Bilder, Fotos und Audio zu erzeugen (und schon sehr bald auch Videos) zu erzeugen, die täuschend echt aussehen.
KI-Fotos werden zunehmend realistisch
Wenn wir uns Fotos und Bilder anschauen, die KI-Systeme wie Midjourney, Stable Diffusion, Dall-E3 oder Ideogram erzeugen, kann man sagen: Die Ergebnisse werden immer realistischer. Häufig lässt sich kaum noch sagen, ob ein Foto echt ist oder mit KI erzeigt wurde.
Um Täuschungsversuche und Verwirrungen zu vermeiden, hat der Meta-Konzern deshalb angekündigt, ab Mai auf seinen Plattformen Facebook und Instagram alle Inhalte, die durch KI erzeugt oder manipuliert wurden entsprechend zu kennzeichnen – völlig automatisch.
„Unsere User haben uns gesagt, dass sie Transparenz rund um diese neue Technik schätzen“, schreibt Meta-Manager Nick Clegg in dem Blogpost, in dem die geplanten Maßnahmen näher erläutert werden. Sein Motto: KI-Inhalte nicht blocken oder löschen, sondern markieren und so für Transparenz sorgen.
Meta will ab Mai KI-Fotos kennzeichnen
Metas Ingenieure arbeiten daran, fotorealistische Aufnahmen – und nur hier besteht ein Risiko der Verwirrung oder Täuschung – mit geeigneten technischen Maßnahmen (unter anderem mit KI) automatisch zu erkennen und zu kennzeichnen. Viele KI-Systeme, die Fotos erzeugen, markieren die Bilder (unsichtbar) schon jetzt automatisch.
Die meisten KI-Systeme wie Midjourney, Dall-E3, Artbreeder, Dream und viele andere kennzeichnen die erzeugten Bilder sowohl durch entsprechende Angaben in den Metadaten (Exif) der Bilder als auch durch unsichtbare Wasserzeichen. OpenAI hat diese Maßnahme gerade erst Mitte Februar eingeführt.
Wasserzeichen und Exif-Metadaten
Allerdings können die meisten Wasserzeichen und auch Metadaten von Menschen mit Expertise entfernt werden. Auf Dauer dürfen sich die Algorithmen bei Meta also nicht allein auf solche Merkmale verlassen, sondern müssen im Zweifel auch weitere Untersuchungen vornehmen. Es ist – zumindest bislang – durchaus möglich, die Wahrscheinlichkeit zu berechnen, nach der ein Foto echt ist oder durch KI erzeugt wurde.
Meta setzt auf zwei Standards: Zum einen auf die “Coalition for Content Provenance and Authenticity” (C2PA) sowie den des „International Press Telecommunications Council“ (IPTC). Diese Standards beschreiben Verfahren, um Bilder digital zu markieren. Beim C2PA-Standard sind Microsoft und Adobe beteiligt, die ebenfalls KI-generierte Inhalte markieren.
Ab Mai soll es losgehen. Es ist zu erwarten, dass nicht alle KI-generierten Fotos automatisch erkannt und korrekt markiert werden. Aber es ist ein erster Schritt, um die dringend erforderliche Transparenz einzuführen.
„AI Act“ der EU sieht ohnehin Kennzeichnung vor
Völlig freiwillig kommt die Maßnahme indes nicht. Denn zwischen Mai und Juli diesen Jahres soll der vom EU-Parlament beschlossene „AI Act“ in Kraft treten, der ohnehin schon bald eine Kennzeichnungspflicht für KI-Inhalte vorsieht.
Künftig wird die Maßnahme auf Audios und Videos ausgedehnt. Bei Videos und Tonspuren sollen die Uploader bei Facebook und Instagram selbst offenlegen müssen, ob es sich um KI-erzeugte Inhalte handelt.