Krise als Chance für Cyberkriminelle: Das Netz braucht Desinfektion

von | 05.03.2020 | Digital

Es ist abstoßend: Immer wieder, wenn eine Krise die Medien beherrscht, nutzen Cyberkriminelle und windige Geschäftemacher ihre Chance – und missbrauchen die öffentliche Aufmerksamkeit, um windige Geschäfte zu machen oder sogar zu betrügen. Die großen Netzwerke haben aus vergangenen Krisen gelernt, aber perfekt ist der Schutz noch lange nicht.

Desinformation – ein Dauerbrenner, der bei jeder größeren Krise wieder aufkocht. Egal ob Naturkatastrophen, Pandemien, politische Umbrüche oder gesellschaftliche Spannungen: Kriminelle und Manipulateure nutzen diese Momente gezielt aus. Was wir aus der Corona-Zeit gelernt haben, gilt heute mehr denn je.

Die Methoden werden dabei immer raffinierter. Während früher simple Kettenbriefe und offensichtliche Fake-News kursierten, setzen Desinformations-Kampagnen heute auf KI-generierte Inhalte, Deepfakes und psychologisch ausgetüftelte Manipulationstechniken.

Von Phishing bis KI-Betrug: Die neuen Maschen

Die klassischen Phishing-Attacken gibt es nach wie vor – nur sind sie deutlich professioneller geworden. Cyberkriminelle nutzen heute generative KI wie ChatGPT oder Claude, um täuschend echte E-Mails zu verfassen. Grammatikfehler und holprige Formulierungen, die früher Phishing-Mails entlarvten, gehören der Vergangenheit an.

Besonders perfide: KI-generierte Audio- und Video-Botschaften vermeintlicher Behörden oder Prominenter. Diese Deepfakes sind mittlerweile so überzeugend, dass selbst Experten zweimal hinschauen müssen. Sicherheitsfirmen wie Sophos, Kaspersky und Bitdefender warnen regelmäßig vor solchen Attacken, die gezielt Krisensituationen ausnutzen.

Dazu kommt ein neues Phänomen: KI-Bots, die in sozialen Medien automatisiert Falschinformationen streuen und dabei menschliche Kommunikationsmuster perfekt imitieren. Sie reagieren auf Kommentare, führen Diskussionen und wirken dabei völlig authentisch.

Plattformen unter Druck: Was sich geändert hat

Immerhin: Die großen Tech-Konzerne haben aus vergangenen Krisen gelernt. Meta (Facebook, Instagram, WhatsApp), Google (YouTube), X (ehemals Twitter) und TikTok haben ihre Faktenchecker-Programme massiv ausgebaut. Algorithmen erkennen verdächtige Inhalte automatisch und leiten sie zur manuellen Prüfung weiter.

Besonders interessant ist die Entwicklung bei WhatsApp: Der Messenger hat die Weiterleitung von Nachrichten drastisch eingeschränkt. Nachrichten, die bereits mehrfach weitergeleitet wurden, lassen sich nur noch an eine Person gleichzeitig schicken – ein wirksamer Schutz gegen virale Falschinformationen.

X/Twitter setzt seit 2024 verstärkt auf Community Notes, bei denen User selbst Faktenchecks beisteuern können. Das System funktioniert erstaunlich gut, auch wenn es nicht perfekt ist. LinkedIn hat eigene KI-Tools entwickelt, die beruflich getarnte Desinformation erkennen.

Neue Gefahren durch generative KI

Paradoxerweise verstärkt ausgerechnet die KI-Revolution das Desinformations-Problem. Tools wie Midjourney, DALL-E oder Stable Diffusion ermöglichen es jedem, binnen Minuten überzeugend wirkende Fake-Bilder zu erstellen. Videos lassen sich mit RunwayML oder Pika Labs manipulieren, als wären es Urlaubsfotos.

Besonders gefährlich: Sogenannte „AI-generated Personas“ – komplett erfundene Personen mit KI-generierten Profilbildern, die über Monate hinweg Vertrauen aufbauen, bevor sie ihre eigentliche Agenda enthüllen. Diese digitalen Schläfer sind in politischen Diskussionen, aber auch bei Investment-Betrügereien immer häufiger anzutreffen.

Was ihr tun könnt: Praktische Schutzmaßnahmen

Der beste Schutz bleibt gesunde Skepsis. Fragt euch bei jedem dramatischen Post: Wer profitiert davon? Warum wird gerade jetzt diese Information verbreitet? Nutzt Reverse-Image-Search bei verdächtigen Fotos und checkt Quellen gegen.

Browser-Extensions wie „InVID-WeVerify“ helfen dabei, manipulierte Medien zu entlarven. Faktenchecker-Seiten wie Correctiv, Mimikama oder der ARD-Faktenfinder sind zuverlässige Anlaufstellen für Zweifelsfälle.

Wichtig: Teilt nichts ungeprüft weiter, auch wenn es von Freunden kommt. Gerade in emotionalen Momenten – bei Krisen, Katastrophen oder politischen Ereignissen – ist die Versuchung groß, schnell zu reagieren. Aber genau dann sind Desinformanten besonders aktiv.

Ausblick: Der Kampf geht weiter

Die Europäische Union hat mit dem Digital Services Act (DSA) neue Regeln geschaffen, die Plattformen stärker in die Pflicht nehmen. Verstöße gegen Transparenz-Regeln können Milliarden-Strafen nach sich ziehen. Auch die Bundesregierung arbeitet an schärferen Gesetzen gegen digitale Gewalt und Desinformation.

Trotzdem bleibt es ein Katz-und-Maus-Spiel. Während Plattformen ihre Schutzmaßnahmen verbessern, werden auch die Angreifer raffinierter. Die Lösung liegt nicht allein bei der Technik, sondern auch bei uns: Medienkompetenz ist zur Grundfähigkeit geworden, so wichtig wie Lesen und Schreiben.

Das Netz braucht also weiterhin regelmäßige Desinfektion – aber wir alle müssen dabei mithelfen.

[av_video src=’https://vimeo.com/273179369′ mobile_image=“ attachment=“ attachment_size=“ format=’16-9′ width=’16‘ height=’9′ conditional_play=“ av_uid=’av-86x63w6′]

Zuletzt aktualisiert am 02.03.2026