Wenn selbst das ZDF auf KI-Fakes reinfällt

von | 19.02.2026 | Digital

Das ZDF hat im „heute journal“ ein KI-generiertes Fake-Video gezeigt – und danach fast alles falsch gemacht, was man falsch machen kann. Der Fall ist ein Lehrstück darüber, wie schlecht viele Redaktionen auf die KI-Ära vorbereitet sind.

Ausgerechnet das ZDF. Am Sonntagabend moderiert Dunja Hayali einen Beitrag über die US-Migrationsbehörde ICE und warnt dabei ausdrücklich: Nicht alle Videos, die in sozialen Netzwerken zu ICE-Einsätzen kursieren, seien echt.

Sekunden später zeigt der anschließende Beitrag genau so ein Fake-Video – eine emotional aufgeladene Szene, in der Polizisten eine weinende Frau abführen, während zwei Kinder verzweifelt an ihr zerren. Die Szene hat nie stattgefunden. Sie wurde mit Sora erzeugt, dem Video-KI-Tool von OpenAI. Das Wasserzeichen prangt deutlich sichtbar im Bild.

Dazu kommt ein zweiter Fehler: Eine weitere Szene zeigt einen Jungen, der von einem Polizisten abgeführt wird. Das Video ist zwar real, stammt aber aus dem Jahr 2022 und zeigt die Festnahme eines Kindes nach einer Amokdrohung an einer Schule in Florida – mit einem ICE-Einsatz hat das nichts zu tun.

Das Krisenmanagement war schlimmer als der Fehler

Fehler passieren. In jeder Redaktion, auch in den besten. Entscheidend ist, wie man damit umgeht. Und genau hier hat das ZDF auf ganzer Linie versagt.

Am Montag, einen Tag nach der Ausstrahlung, verschwindet die komplette Sendung kommentarlos aus der Mediathek. Keine Erklärung, keine Richtigstellung.

Auf Presseanfragen kommt dann eine Stellungnahme, die alles noch verschlimmert: Die KI-Bilder hätten lediglich gekennzeichnet werden müssen, die Kennzeichnung sei bei der „Überspielung aus technischen Gründen“ nicht übertragen worden.

Das ist eine bemerkenswerte Aussage. Denn sie bedeutet im Klartext: Das ZDF hielt die Verwendung eines KI-generierten Videos in einem Nachrichtenbeitrag über reale Ereignisse grundsätzlich für vertretbar – solange nur ein kleiner Hinweis dabei steht.

„Doppelfehler“: Es braucht klare Regeln

Das Medienportal Übermedien nannte diese Erklärung zutreffend „Bullshit“. In einem Beitrag, der dokumentieren soll, was tatsächlich in den USA passiert, hat ein KI-generiertes Video schlicht nichts verloren. Mit oder ohne Kennzeichnung.

Erst am Dienstagabend – also zwei volle Tage nach der Ausstrahlung – entschuldigt sich die stellvertretende Chefredakteurin Anne Gellinek im „heute journal“ und nennt das Ganze einen „Doppelfehler“. Der „heute journal“-Chef Stefan Leifert zitiert eine interne Regel, wonach KI-generierte Bilder im Nachrichtenbereich des ZDF nicht verwendet werden dürfen.

Das Problem: Diese Regel findet sich in den öffentlich zugänglichen KI-Grundsätzen des ZDF nicht. Es entsteht der Eindruck, dass sie nachträglich formuliert wurde.

Risiko Deepfake: Dieser Imbisswagen hat niemals vor dem Kölner Dom gebrannt - sieht aber so aus
Risiko Deepfake: Dieser Imbisswagen hat niemals vor dem Kölner Dom gebrannt – sieht aber so aus

Was der Fall über die Branche verrät

So ärgerlich der Einzelfall ist – er steht für ein viel größeres Problem. Viele Redaktionen sind auf die Flut von KI-generierten Inhalten nicht vorbereitet. Nicht technisch, nicht organisatorisch und offensichtlich auch nicht in der Kompetenz einzelner Mitarbeiterinnen und Mitarbeiter.

Ein Sora-Wasserzeichen im Bild zu übersehen – das ist kein Versagen einer einzelnen Autorin. Das ist ein systemisches Problem. Der Beitrag wurde geschnitten, abgenommen, gesendet. Niemand in dieser Kette hat das Logo erkannt oder das Video hinterfragt. Das ZDF hat inzwischen verpflichtende Schulungen und einen Maßnahmenkatalog angekündigt. Gut so. Aber es zeigt eben auch, dass diese Schulungen vorher offenbar gefehlt haben.

Dabei ist das ZDF kein Einzelfall. In den vergangenen Monaten sind KI-generierte Bilder in Tageszeitungen gelandet, die Gewerkschaft der Polizei hat ein KI-Fake-Foto in einer Pressemitteilung verwendet, und Redaktionen weltweit kämpfen damit, die wachsende Flut synthetischer Inhalte zu erkennen.

Was jetzt passieren muss

Drei Dinge sind dringend nötig.

Erstens: Verifikation muss Standard werden. Jedes Video, das aus dem Internet übernommen wird, braucht eine Herkunftsprüfung. Eine Bilderrückwärtssuche ist das Minimum. Dazu gehört der Check auf Wasserzeichen, auf visuelle Artefakte – und auf den sogenannten C2PA-Standard. Das ist ein offenes Metadaten-System, das verrät, mit welchem Tool eine Datei erzeugt wurde. Auf contentcredentials.org/verify kann man Dateien kostenlos prüfen. Kein Allheilmittel, aber ein guter erster Schritt.

Zweitens: Redaktionen brauchen KI-Kompetenz auf allen Ebenen. Nicht nur in spezialisierten Faktencheck-Teams, sondern bei allen, die mit Bewegtbild arbeiten – von der Autorin über die Cutterin bis zur Abnahme. Wer heute nicht weiß, was Sora, Veo oder Kling sind und wie deren Outputs aussehen, ist für die Arbeit mit Videomaterial aus dem Netz nicht ausreichend qualifiziert.

Drittens: Krisenmanagement muss ehrlich sein. Wenn ein Fehler passiert, dann sofort raus damit. Transparent, selbstkritisch, ohne Ausflüchte. Das ZDF hat mit seiner stückweisen Kommunikation – erst Schweigen, dann Verharmlosung, dann Entschuldigung – den Schaden massiv vergrößert. Das gibt allen Munition, die den öffentlich-rechtlichen Rundfunk ohnehin abschaffen wollen.

Was wir als Nutzerinnen und Nutzer tun können

Auch für uns alle ist der Fall ein Weckruf. Achtet auf Wasserzeichen in Videos – Sora hat ein animiertes Logo, andere Tools ähnliche Markierungen. Schaut auf Hände, Finger, Uniformlogos: KI-Videos haben dort oft Fehler.

Fragt euch, ob ein Video aus mehreren Quellen und Perspektiven belegt ist. Und nutzt Tools wie den C2PA-Verify oder die Bilderrückwärtssuche von Google, um Quellen zu prüfen.

Der eigentliche Schaden von KI-Fakes ist übrigens nicht nur, dass sie Lügen verbreiten. Sie zerstören auch das Vertrauen in echte Bilder. Wenn selbst das öffentlich-rechtliche Fernsehen nicht mehr zwischen echt und KI-generiert unterscheiden kann – warum sollte es dann irgendjemand anderes können? Genau deshalb brauchen wir jetzt mehr Kompetenz, mehr Transparenz und bessere Werkzeuge. Auf allen Seiten.