KI erweckt Fotos zum Leben: Von MyHeritage bis zu gefährlichen Deepfakes

von | 21.03.2021 | Digital

Künstliche Intelligenz hat die Foto- und Videobearbeitung revolutioniert. Was früher Hollywood-Studios vorbehalten war, kann heute jeder per App: Gesichter animieren, verstorbene Verwandte zum Leben erwecken oder sich selbst zum Sänger machen. Tools wie MyHeritage Deep Nostalgia, Meta’s LivePortrait oder die neue Gen-3-Technologie von Runway machen es möglich. Doch die beeindruckende Technologie bringt auch ernste Gefahren mit sich.

Hollywood hat uns verdorben. Was die Filmstudios in den letzten Jahren so alles auf die Leinwand gezaubert haben – meine Güte. Dinosaurier. Sturmfluten. Auf die Erde krachende Kometen. Kriegsheere bis zum Horizont. Und natürlich Comic-Wesen jeder Art, die so ziemlich alles zuwege bringen.

Die Bilderfluten werden immer beeindruckender – echte Bilder braucht es da immer weniger. Alles, was unmöglich (oder zu teuer) ist oder nicht ins Studio passt, entsteht halt per Computer. Und sieht trotzdem verblüffend echt aus. Special Effects gehören zu Hollywood heute dazu.

MyHeritage animiert alte Fotos

Hollywood-Effekte für alle – jetzt noch realistischer

Aber was sich früher nur Filmstudios leisten konnten, landet heute in der Hosentasche von uns allen. Und die Qualität ist mittlerweile atemberaubend.

Es gibt zahllose Apps und Online-Tools, die mit Hilfe von KI solche Deep Fakes erzeugen. Das Spektrum reicht von lustig bis täuschend echt. Tools wie HeyGen, D-ID oder das neue LivePortrait von Meta können aus einem einzigen Foto fotorealistische Videos erstellen.

Beim Onlineportal MyHeritage ist die „Deep Nostalgia“-Funktion noch populärer geworden. Ihr ladet Fotos von Verwandten hoch – und bekommt kleine Filmchen zurück, in denen selbst längst verstorbene Menschen sich plötzlich wieder bewegen. Sie drehen den Kopf, lächeln, zwinkern. Die Bildqualität ist mittlerweile so gut, dass es richtig unheimlich wirkt.

Denn moderne KI-Modelle verstehen nicht nur, wie ein Gesicht aussieht, sondern auch wie Muskeln, Haut und sogar Haare sich bei Bewegungen verhalten. Machine Learning macht’s möglich.

Von Wombo zu Suno: Singen wird photorealistisch

Die ursprüngliche Wombo-App war nur der Anfang. Heute gibt es deutlich ausgefeiltere Alternativen. Tools wie Synthesia, HeyGen oder das neue „AI Studios“ von DeepBrain können nicht nur Lippen synchron bewegen, sondern ganze Körper animieren.

Besonders beeindruckend: Runway’s Gen-3-Modell oder OpenAI’s Sora können aus Textbeschreibungen ganze Videos generieren. Ihr schreibt „Eine Person singt auf einer Bühne“ – und die KI erstellt ein komplettes, fotorealistisches Video. Ohne echte Person, ohne echte Bühne.

Meta’s „Make-A-Video“ und Google’s „Imagen Video“ zeigen, wohin die Reise geht: Vollständig KI-generierte Videos, die von echten Aufnahmen kaum noch zu unterscheiden sind.

Die dunkle Seite: Deepfakes als Waffe

Von der Leinwand in die Hosentasche: Deep Fakes sind längst Mainstream. Aber die Kehrseite wird immer problematischer.

2025 war ein Wendejahr: Politische Deepfakes beeinflussten Wahlen, gefälschte CEO-Videos führten zu Börsencrashs, und „Deepfake-Porn“ wurde zur digitalen Gewalt gegen Frauen. Das FBI verzeichnet einen 900%igen Anstieg von Deepfake-Betrug.

Die EU hat deshalb den „AI Act“ verschärft – Deepfakes müssen seit 2024 gekennzeichnet werden. Aber die Technologie entwickelt sich schneller als die Gesetze.

Schutz vor Deepfakes: Was hilft wirklich?

Zum Glück gibt es Gegenwehr. Tools wie „Deepware Scanner“, Microsofts „Video Authenticator“ oder Intels „FakeCatcher“ können viele Deepfakes erkennen. Sie analysieren Pixel-Anomalien, unnatürliche Augenbewegungen oder inkonsistente Beleuchtung.

Content-Authenticity-Initiative (CAI) arbeitet an einer Art „digitalen Fingerabdruck“ für echte Medien. Adobe, BBC und andere große Player sind dabei. Ziel: Echte Fotos und Videos werden ab Aufnahme kryptographisch signiert.

Auch Blockchain-basierte Lösungen wie „Numbers Protocol“ oder „Truepic“ versprechen Hilfe. Sie dokumentieren lückenlos, wann und wo ein Foto entstanden ist.

Die Zukunft: Noch realistischer, noch gefährlicher

Die nächste Generation kommt bereits: „Real-time Deepfakes“ funktionieren live per Webcam. Nvidia’s „Vid2Vid“ oder die neue „InstantID“-Technologie brauchen nur noch Millisekunden statt Minuten.

Bald werden wir bei Videoanrufen nicht mehr wissen, ob unser Gegenüber echt ist. Oder ob der Nachrichtensprecher wirklich existiert.

Ist „Deep Fake“ das neue „Fake News“? Längst. Die Frage ist nur: Sind wir darauf vorbereitet?

Eins ist klar: Die Technologie wird nicht verschwinden. Wir müssen lernen, damit umzugehen – kritischer zu hinterfragen, was wir sehen, und bessere Tools zum Schutz zu entwickeln.

[av_video src=’https://vimeo.com/526180141′ mobile_image=“ attachment=“ attachment_size=“ format=’16-9′ width=’16‘ height=’9′ conditional_play=“ av_uid=’av-6rhk52n‘]

Zuletzt aktualisiert am 26.02.2026