Cyberkriminelle nutzen KI-Chatbots wie ChatGPT, Claude und Gemini zunehmend für Betrug und Manipulation. Die neueste Generation von KI-Modellen macht es möglich, perfekte Phishing-Mails zu schreiben und Identitäten täuschend echt nachzuahmen.
Die Europol-Warnungen von 2023 waren erst der Anfang: Heute nutzen Cyberkriminelle nicht nur ChatGPT, sondern ein ganzes Arsenal modernster KI-Tools für ihre finsteren Zwecke. Mit GPT-4o, Claude 3.5 Sonnet und Google Gemini Ultra stehen ihnen Werkzeuge zur Verfügung, die noch vor wenigen Jahren undenkbar waren.
Neue Dimensionen des KI-Betrugs
Die Kriminellen sind kreativ geworden: Sie nutzen KI-Chatbots, um perfekte Phishing-E-Mails zu erstellen, die selbst Experten täuschen können. Besonders gefährlich sind sogenannte „Spear-Phishing“-Attacken, bei denen die KI aus öffentlich verfügbaren Informationen über das Opfer maßgeschneiderte Nachrichten erstellt.
Cyberkriminelle nutzen ChatGPT, um auf Opfer zugeschnittene Texte zu erstellen
Noch bedrohlicher: Romance Scammer verwenden KI, um wochenlange emotionale Beziehungen zu ihren Opfern aufzubauen. Die KI analysiert die Kommunikation und passt Stil und Inhalt perfekt an die Persönlichkeit des Opfers an. Binnen Minuten entstehen so überzeugende Liebesbriefe, für die Betrüger früher Tage brauchten.
Deepfakes und Voice-Cloning im Vormarsch
Eine neue Bedrohung sind KI-generierte Stimmen und Videos. Tools wie ElevenLabs oder Murf ermöglichen es, mit wenigen Sekunden Audiomaterial die Stimme einer Person zu klonen. Kriminelle nutzen dies für sogenannte „Vishing“-Attacken (Voice-Phishing), bei denen sie sich als Familienmitglieder oder Geschäftspartner ausgeben.
Besonders perfide: CEO-Fraud-Angriffe, bei denen die geklonte Stimme des Chefs Mitarbeiter zu Geldtransfers auffordert. Mehrere Unternehmen verloren bereits Millionenbeträge durch solche Attacken.
Automatisierte Cybercrime-as-a-Service
Das Darknet boomt mit KI-basierten Diensten. Kriminelle bieten „Phishing-as-a-Service“ an – komplette Kampagnen werden automatisch erstellt und verwaltet. Die KI übernimmt dabei:
- Zielgruppenanalyse und -auswahl
- Erstellung überzeugender Inhalte
- Timing-Optimierung für maximale Erfolgsrate
- Automatische Anpassung bei erkannten Schutzmaßnahmen
Selbst technische Laien können so hochprofessionelle Cyberattacken starten. Die Eintrittshürden für Cybercrime sind dramatisch gesunken.
KI gegen KI: Der Kampf der Algorithmen
Die gute Nachricht: Auch die Verteidigung rüstet auf. Microsoft Defender, Google Safe Browsing und andere Sicherheitslösungen setzen inzwischen auf KI-basierte Erkennung. Diese Systeme analysieren Kommunikationsmuster und erkennen KI-generierte Bedrohungen oft schon, bevor sie beim Empfänger ankommen.
Europol hat 2025 das „AI Crime Detection Network“ gestartet – eine europaweite Initiative, die Machine Learning nutzt, um kriminelle KI-Nutzung zu identifizieren. Erste Erfolge zeigen sich bereits: Die Aufklärungsrate bei KI-unterstützten Betrugsfällen stieg um 40 Prozent.
So schützt ihr euch vor KI-Betrug
Aufmerksamkeit ist euer bester Schutz. Achtet auf diese Warnsignale:
- Ungewöhnlich perfekte Rechtschreibung und Grammatik in verdächtigen Nachrichten
- Emotionale Dringlichkeit kombiniert mit Geldanforderungen
- Anrufe von „Bekannten“, die sich seltsam anhören oder ungewöhnliche Formulierungen verwenden
- Video-Calls, bei denen die Person nicht interaktiv auf eure Fragen reagiert
Aktiviert Zwei-Faktor-Authentifizierung überall wo möglich. Nutzt Passwort-Manager mit integrierten Phishing-Schutz. Und wenn ihr unsicher seid: Fragt nach! Ein echter Anruf beim angeblichen Absender klärt Zweifel schnell.
Ausblick: Was uns 2026 erwartet
Die nächste Generation von KI-Modellen wird noch überzeugender. Gleichzeitig arbeiten Forscher an „KI-Wasserzeichen“, die KI-generierte Inhalte erkennbar machen sollen. Die EU plant für Ende 2026 eine Kennzeichnungspflicht für KI-Inhalte.
Die Zukunft der Cybersicherheit liegt im Wettrüsten zwischen krimineller und defensiver KI. Bleibt wachsam, informiert euch regelmäßig über neue Bedrohungen und vertraut eurem Bauchgefühl – oft ist die erste Skepsis berechtigt.
Zuletzt aktualisiert am 19.02.2026
