Team Jorge und KI: Wahlmanipulation wird zur digitalen Massenware

von | 17.02.2023 | Internet

Eine Recherchekooperation von „Forbidden Stories“ deckte das Geschäft mit Desinformation und Wahlmanipulation auf. Ein wichtiger Akteur sitzt in Israel – und das Problem ist größer geworden.

Wahlkampf ohne Social Media? Heute undenkbar. Doch während Parteien um Aufmerksamkeit kämpfen, operieren im Schatten professionelle Manipulatoren. Wir kennen russische Trollfabriken, die systematisch Unwahrheiten streuen. Aber was investigative Journalisten 2023 aufdeckten, übertrifft alles: Ein israelisches Unternehmen manipuliert weltweit Wahlen – gegen Bezahlung.

Das Geschäftsmodell ist perfide: Wer genug zahlt, bekommt die Stimmen. Ein Kollektiv internationaler Journalisten hat diesen Fall unter „Forbidden Stories“ dokumentiert. Die Erkenntnisse sind drei Jahre später aktueller denn je.

Globale Wahlmanipulation als Dienstleistung

Nach den Recherchen von Journalisten – darunter Kollegen von Spiegel, ZDF und ZEIT – hat die israelische Firma „Team Jorge“ weltweit Dutzende Wahlen manipuliert. Das Unternehmen, gegründet von Ex-Geheimdienstleuten, verspricht für 6 bis 15 Millionen US-Dollar Wahlsiege.

Team Jorge behauptet, in 33 nationale Wahlkämpfe eingegriffen zu haben – in 27 Fällen erfolgreich. Schauplätze: Kenia, Nigeria, Lateinamerika. Die Methoden: systematische Desinformation, gehackte Politiker-Smartphones, kompromittierendes Material.

Das war 2023. Heute, 2026, ist das Problem exponentiell gewachsen. KI-generierte Inhalte machen Manipulation billiger und effektiver. Deep Fakes sind kaum noch erkennbar, automatisierte Bot-Netzwerke agieren sophistizierter.

KI verstärkt die Bedrohung

Was 2023 noch Millionen kostete, schaffen heute kleinere Akteure mit KI-Tools für einen Bruchteil. ChatGPT, Claude und Co. generieren binnen Sekunden überzeugende Fake-News in jeder Sprache. Bildgeneratoren wie Midjourney oder DALL-E erstellen täuschend echte Fotos angeblicher Ereignisse.

Die Fabrik-artige Produktion von Fake-Accounts, die damals beeindruckte, wirkt heute antiquiert. Moderne Bot-Farmen nutzen KI für individuelle Persönlichkeiten, glaubwürdige Biografien und authentische Interaktionsverhalten. Die 30.000 Avatare von Team Jorge? Heute generiert KI Millionen einzigartiger Profile.

Besonders perfide: Large Language Models imitieren regionale Dialekte und kulturelle Eigenarten. Deutsche Fake-Accounts schreiben plötzlich wie echte Bayern oder Hamburger. Die Zwei-Faktor-Authentifizierung? Längst durch KI-gestützte SIM-Swapping-Angriffe und Voice-Cloning überwunden.

Forbidden Stories: Hier werden Geschichten investigativ nachrecherchiert

Forbidden Stories: Hier werden Geschichten investigativ nachrecherchiert

Europa im Visier der Manipulatoren

2024 und 2025 zeigten: Auch deutsche und europäische Wahlen stehen im Fokus. Experten dokumentierten koordinierte Desinformationskampagnen vor Landtagswahlen. Themen wie Migration, Klimawandel oder Ukraine-Krieg werden systematisch emotionalisiert.

Die Methoden verfeinern sich: Statt offensichtlicher Propaganda setzen Manipulatoren auf subtile Meinungsmache. Scheinbar authentische Bürger teilen „persönliche Erfahrungen“, die nie stattfanden. Lokale Facebook-Gruppen werden unterwandert, um Stammtisch-Diskussionen zu vergiften.

Neue Player sind aufgetaucht: Neben russischen Akteuren mischen chinesische, iranische und private Dienstleister mit. Das Geschäftsmodell von Team Jorge wurde kopiert – und perfektioniert.

Plattformen kämpfen – aber reicht es?

Meta, X (ehemals Twitter) und TikTok haben ihre Erkennungssysteme ausgebaut. KI identifiziert verdächtige Accounts schneller, Fact-Checking wurde verstärkt. Doch es ist ein Wettrüsten: Manipulatoren passen sich kontinuierlich an.

Problematisch bleibt die Transparenz. Forscher fordern weiterhin besseren Datenzugang, um Manipulationskampagnen zu analysieren. Einige Fortschritte gibt es: Der EU Digital Services Act zwingt große Plattformen zu mehr Offenheit. Doch die Umsetzung stockt.

Messenger-Dienste wie Telegram bleiben problematisch. Ihre Verschlüsselung schützt Privatspähre – aber auch Desinformations-Netzwerke. Signal und WhatsApp-Gruppenchats sind kaum überwachbar.

Wehrhafte Demokratie braucht wehrhafte Bürger

Die Team-Jorge-Enthüllungen waren ein Weckruf – aber haben wir genug gelernt? Jeder Klick, jeder Share kann Teil einer Manipulation sein. Deshalb ist digitale Medienkompetenz heute überlebenswichtig für die Demokratie.

Grundregel: Vor dem Teilen denken. Emotionale Posts sind besonders verdächtig – sie sollen uns zum reflexartigen Weiterleiten verleiten. Quellen prüfen, bei mimikama.org nachschlagen, zweite Meinungen einholen.

Besonders bei lokalen Themen aufpassen: „Bürgerinitiativen“ oder „Betroffene“, die plötzlich auftauchen, könnten künstlich sein. Echter Aktivismus hinterlässt digitale Spuren – Fake-Kampagnen entstehen aus dem Nichts.

Der-Newstest: Finde heraus, ob Du Fake News erkennst

Der-Newstest: Finde heraus, ob Du Fake News erkennst

Trainiert eure Fake-News-Erkennung

Wie gut seid ihr wirklich im Erkennen von Manipulation? Der Newstest der Stiftung Neue Verantwortung wurde 2025 komplett überarbeitet. Neue Beispiele aus TikTok, Instagram und aktuellen Desinformationskampagnen schärfen den Blick.

Der Test simuliert echte Social-Media-Situationen: Ihr seht Posts, wie sie täglich in euren Feeds auftauchen. Echt, Werbung, Satire oder Desinformation? Die Auflösung erklärt, welche Details verraten.

Neu sind KI-generierte Inhalte: Deep Fakes, KI-Texte, synthetische Bilder. Diese zu erkennen wird zur Schlüsselkompetenz. Browser-Plugins wie „AI or Not“ helfen dabei – aber der geschulte Blick ist unersetzlich.

Der Kampf geht weiter

Team Jorge war nur der Anfang. Wahlmanipulation wird professioneller, billiger, schwerer erkennbar. KI demokratisiert sowohl die Manipulation als auch ihre Aufdeckung.

Die Verantwortung liegt nicht nur bei Plattformen und Politik – sondern bei jedem von uns. Kritisches Denken, Quellenprüfung und gesunde Skepsis sind die besten Waffen gegen digitale Manipulation.

Denn eines bleibt klar: Wer unsere Demokratie schützen will, muss sie verstehen – und ihre digitalen Bedrohungen ernst nehmen.

Zuletzt aktualisiert am 19.02.2026