Fake-Fotos vom Papst: Warum es immer mehr Deepfakes gibt

von | 28.03.2023 | Internet

Künstlich generierte Bilder von Prominenten fluten das Netz: Von Päpsten in Daunenjacken bis zu erfundenen Politiker-Skandalen. Wie KI-Tools heute in Sekunden täuschend echte Deepfakes erstellen – und warum das 2026 zur echten Gefahr für Demokratie und Gesellschaft wird.

Der Papst, unterwegs in einer stylischen weißen Daunenjacke: Diese viralen Bilder haben bereits 2023 gezeigt, was möglich ist. Heute, drei Jahre später, sind solche KI-generierten Deepfakes zur täglichen Realität geworden. Was damals noch für Aufsehen sorgte, ist mittlerweile Standard – und die Qualität hat sich dramatisch verbessert.

KI-Bildgeneratoren 2026: Von Midjourney bis DALL-E 4

Mittlerweile dominieren mehrere KI-Systeme den Markt für Bildgenerierung. Midjourney Version 7 liefert fotorealistische Ergebnisse in 4K-Qualität. OpenAIs DALL-E 4 beherrscht komplexe Szenarien mit mehreren Personen. Googles Imagen 3 und Adobes Firefly 3 sind in Photoshop und andere Creative Tools integriert. Stable Diffusion läuft sogar auf Smartphones.

Der Prozess ist denkbar einfach geworden: „Zeige den deutschen Bundeskanzler beim Händeschütteln mit einem Diktator“ – fertig ist das kompromittierende Bild. Die neuen Modelle verstehen nicht nur Text-Prompts, sondern auch Referenzbilder, Stilvorlagen und sogar Emotionen. „Lass Person X wütend/traurig/schuldig aussehen“ funktioniert zuverlässig.

Von einem Künstler erstellte Deepfakes: Donald Trump wird verhaftet

Von einem Künstler erstellte Deepfakes: Donald Trump wird verhaftet

Besonders problematisch: Viele Tools haben ihre anfänglichen Sicherheitsvorkehrungen gelockert oder lassen sich mit cleveren Umformulierungen austricksen. Was 2023 noch blockiert wurde, funktioniert heute oft problemlos.

Video-Deepfakes: Die nächste Stufe der Manipulation

Während Foto-Deepfakes schon fast Routine sind, haben sich Video-Deepfakes explosionsartig entwickelt. Tools wie RunwayML Gen-3, Pika Labs 2.0 und Sora von OpenAI erstellen minutenlange, hochauflösende Videos aus simplen Texteingaben.

Noch gefährlicher: Face-Swap-Technologien wie FaceSwapper Pro oder DeepFaceLive arbeiten in Echtzeit. Streamende Politiker, CEOs oder Influencer können live „übernommen“ und zu kompromittierenden Aussagen gebracht werden.

Deepfake: Putin kniet vor Xi Jinping

Deepfake: Putin kniet vor Xi Jinping

Die Audio-Komponente macht es perfekt: ElevenLabs, Murf.ai und Microsofts VALL-E 2 klonen Stimmen bereits nach wenigen Sekunden Ausgangsmaterial. Kombiniert mit Video-Deepfakes entstehen komplett gefälschte Interviews, Bekenntnisse oder Skandal-Aufnahmen.

Der Deepfake-Tsunami von 2025/2026

Die Flut gefälschter Inhalte ist explodiert. Während der US-Wahlen 2024 kursierten tausende manipulierte Videos von Kandidaten. In Deutschland sorgte ein gefälschtes Video des Bundeskanzlers für politische Turbulenzen. Social Media Plattformen kämpfen täglich gegen millionen neue Deepfakes.

Partikulär perfide: Micro-Deepfakes in Gruppenchats oder auf Dating-Plattformen. Kriminelle erstellen gefälschte Profile mit KI-generierten Gesichtern und Stimmen für Romance Scamming oder Erpressung.

Donald Trump in Moscow: Fotos sind in KI entstanden

Donald Trump in Moscow: Fotos sind in KI entstanden

Waffen im Informationskrieg

Deepfakes sind zur Standard-Waffe in geopolitischen Konflikten geworden. Russische, chinesische und nordkoreanische Akteure fluten westliche Social Networks mit manipulierten Inhalten. Aber auch demokratische Regierungen experimentieren mit „strategischen Desinformationskampagnen“.

Besonders heimtückisch: KI-generierte „Beweise“ für Verschwörungstheorien. Fake-Videos von angeblichen Geheimtreffen, manipulierte Dokumente oder erfundene Whistleblower-Aussagen befeuern gesellschaftliche Spaltungen.

Erkennungstools im Wettlauf gegen KI

2026 ist das ein Katz-und-Maus-Spiel geworden. Erkennungstools wie Deepware Scanner, Microsoft Video Authenticator oder Googles SynthID kämpfen gegen immer ausgefeiltere Fälschungen. Die Trefferquote liegt bei etwa 70-80 Prozent – zu wenig für zuverlässliche Verifikation.

Vielversprechender sind Blockchain-basierte Content-Authentifizierung und C2PA (Coalition for Content Provenance and Authenticity) Standards. Kameras und Smartphones können Aufnahmen kryptografisch signieren. Aber nur wenige Geräte unterstützen das bereits.

Gesellschaftliche Folgen: Vertrauen erodiert

Das eigentliche Problem ist psychologischer Natur: „Liar’s Dividend“ nennen Experten das Phänomen. Politiker können echte, belastende Aufnahmen als „wahrscheinlich Deepfake“ abtun. Gleichzeitig verlieren Menschen das Vertrauen in jegliche Medieninhalte.

Studien zeigen: 60% der Internetnutzer zweifeln mittlerweile standardmäßig an der Echtheit von Videos prominenter Personen. Das untergräbt legitimen Journalismus und politische Kommunikation.

Rechtslage und Regulierung hinken hinterher

Der EU AI Act von 2024 klassifiziert Deepfakes als „Hochrisiko-KI“, aber Durchsetzung ist schwierig. Viele Generatoren operieren aus Ländern ohne entsprechende Gesetze. In Deutschland können Deepfakes theoretisch als Beleidigung, Verleumdung oder Urheberrechtsverletzung verfolgt werden – praktisch ist die Verfolgung aber oft unmöglich.

Plattformen wie Meta, X (Twitter) und TikTok haben Deepfake-Richtlinien, aber die automatische Erkennung funktioniert unzuverlässig. Oft werden harmlose Parodien gelöscht, während schädliche Fakes durchrutschen.

Schutz und Medienkompetenz

Für Nutzer bleibt kritisches Denken die beste Verteidigung. Verdächtige Inhalte sollten über Faktenchecker wie Correctiv, Mimikama oder Snopes verifiziert werden. Browser-Extensions wie InVID-WeVerify helfen bei der Rückwärtssuche von Bildern und Videos.

Unternehmen und Politiker setzen zunehmend auf „Proof of Life“ Videos mit aktuellen Bezügen oder biometrischen Verifikationssystemen für wichtige Kommunikation.

Deepfakes sind 2026 nicht mehr nur ein technisches Kuriosum, sondern eine reale Bedrohung für demokratische Diskurse und gesellschaftliches Vertrauen. Ohne bessere Erkennungstools und stärkere Regulierung werden sie weiter zur Destabilisierung beitragen.

Zuletzt aktualisiert am 19.02.2026