KI-Deepfakes bedrohen die öffentliche Gesundheit

von | 09.12.2020 | Digital

KI-generierte Fake-Videos werden immer raffinierter und sind kaum noch zu erkennen. Nach den Erfahrungen mit Corona-Impfungen ist klar: Deepfakes und manipulierte Inhalte können massive Auswirkungen auf die öffentliche Gesundheit haben. Wie wir uns gegen diese digitale Bedrohung wappnen können.

Die Vorhersage ist leider eingetreten: Während der Corona-Pandemie kursierten unzählige Fake-Videos über angebliche Impfschäden. Doch was damals noch relativ plump gemacht war, hat sich dramatisch weiterentwickelt. Mit fortschrittlicher KI wie Sora, RunwayML und anderen generativen Video-Tools können heute täuschend echte Aufnahmen erstellt werden, die selbst Experten ins Grübeln bringen.

Von Corona-Desinformation zu KI-Deepfakes

Die Erfahrungen aus der Pandemie waren ein Weckruf. Schon damals verbreiteten sich Videos von angeblich schwer erkrankten Geimpften viral – oft waren es schlicht erfundene Geschichten oder bereits kranke Menschen, deren Leiden fälschlicherweise mit der Impfung verknüpft wurde. Das Resultat: Die Impfbereitschaft sank drastisch von anfangs über 70% auf zeitweise unter 50%.

Heute ist die Situation noch brisanter. KI-Tools können binnen Minuten Videos erstellen, die zeigen, wie Menschen nach medizinischen Eingriffen zusammenbrechen, zittern oder andere dramatische Symptome zeigen. Dabei sehen diese Aufnahmen völlig authentisch aus – perfekte Beleuchtung, realistische Körperbewegungen, echte Emotionen.

Besonders perfide: Mit Voice-Cloning-Technologie können sogar die Stimmen echter Ärzte oder Wissenschaftler imitiert werden, um den Fake-Inhalten mehr Glaubwürdigkeit zu verleihen. Ein generiertes Video, in dem ein bekannter Virologe vor Impfnebenwirkungen warnt, kann binnen Stunden Millionen erreichen – bevor die Wahrheit eine Chance hat.

Die neue Dimension der Manipulation

Die Technologie hat sich explosionsartig entwickelt. Während 2020 noch teure Software und Fachwissen nötig waren, reichen heute Apps auf dem Smartphone. Jeder kann zum Deepfake-Produzenten werden. Die Qualität ist dabei so hoch, dass selbst Forensik-Experten Schwierigkeiten haben, Fakes zu identifizieren.

Besonders problematisch: Die Algorithmen der sozialen Medien bevorzugen emotionalen, kontroversen Content. Ein schockierendes Fake-Video über Impfschäden wird vom System bevorzugt ausgespielt, weil es hohe Interaktionsraten erzielt. Die Wahrheit ist oft langweiliger – und erreicht daher weniger Menschen.

Das Muster ist vorhersagbar: Sobald eine neue Impfkampagne startet – sei es gegen eine neue Pandemie, Vogelgrippe oder andere Krankheiten – werden innerhalb von Stunden die ersten manipulierten Videos auftauchen. Sie zeigen vermeintliche Opfer, die dramatische Nebenwirkungen erleiden. Die Verbreitung erfolgt blitzschnell über Telegram, TikTok, X (ehemals Twitter) und andere Kanäle.

Gegenmaßnahmen und Erkennungstools

Tech-Konzerne haben aufgerüstet. Meta (Facebook/Instagram) verwendet inzwischen KI-Systeme, die Deepfakes erkennen können. YouTube hat ähnliche Filter implementiert. Doch es ist ein Wettlauf: Kaum wird eine Erkennungstechnologie eingeführt, entwickeln die Fake-Produzenten neue Umgehungsstrategien.

Microsoft und Adobe bieten mittlerweile Content-Authenticity-Tools an, die digitale Signaturen in Videos einbetten. Echte Aufnahmen können so verifiziert werden. Das Problem: Diese Technologie ist noch nicht flächendeckend im Einsatz.

Für uns Nutzer gibt es trotzdem Erkennungsmerkmale: Unnatürliche Augenbewegungen, seltsame Schatten, inkonsistente Beleuchtung oder unrealistische Körperproportionen können Hinweise auf Fakes sein. Spezialisierte Websites wie „Detect Fakes“ oder „Deepware Scanner“ helfen bei der Analyse verdächtiger Videos.

Was jetzt zu tun ist

Medienkompetenzeducation ist entscheidend. Jeder sollte lernen, Quellen zu prüfen und bei emotionalen, schockierenden Inhalten skeptisch zu bleiben. Besonders wichtig: Nicht vorschnell teilen! Lieber einmal mehr nachfragen, als Fake News zu verbreiten.

Journalisten und Fact-Checker arbeiten heute mit forensischen Video-Analysetools. Organisationen wie Correctiv oder der ARD-faktenfinder haben ihre Teams massiv aufgestockt. Doch sie können nur reagieren – die Fakes sind oft schon viral, bevor sie widerlegt werden.

Die Politik ist gefordert: Strengere Regulierung von KI-generierten Inhalten, Kennzeichnungspflicht für synthetische Medien und härtere Strafen für Gesundheitsdesinformation sind überfällig. Die EU arbeitet mit dem AI Act an entsprechenden Regelungen.

Für die nächste Gesundheitskrise – und die wird kommen – müssen wir gewappnet sein. Das bedeutet: Kritisch bleiben, Quellen prüfen und im Zweifel bei Gesundheitsfragen echte Experten konsultieren, statt auf virale Videos zu vertrauen. Die Wahrheit mag manchmal langweiliger sein als der Fake – aber sie kann Leben retten.

[av_video src=’https://vimeo.com/481627933′ mobile_image=“ attachment=“ attachment_size=“ format=’16-9′ width=’16‘ height=’9′ conditional_play=“ av_uid=’av-iwdkyq‘]

Zuletzt aktualisiert am 27.02.2026