Social Media Manipulation: Wie Meta, X und TikTok Wahlen beeinflussen

von | 02.11.2017 | Internet

Schon seit Jahren ist bekannt, dass ausländische Kräfte versucht haben, Einfluss auf US-Wahlen zu nehmen – dabei setzen sie nicht nur auf Hackerangriffe, sondern nutzen gezielt die Werbesysteme von Meta (ehemals Facebook), Google, TikTok und X (ehemals Twitter). Die jüngsten Erkenntnisse aus den US-Wahlen 2024 und die anhaltenden Untersuchungen zeigen: Das Problem ist größer geworden, nicht kleiner. Die Tech-Giganten stehen weiterhin in der Kritik.

Was 2016 mit russischen Anzeigen bei Facebook begann, hat sich zu einem dauerhaften Problem entwickelt. Meta, Google und X gelten in den USA normalerweise als Innovationstreiber. Doch bei der Wahlbeeinflussung versagen sie regelmäßig – und das mit System.

Die Methoden sind dabei erschreckend simpel geblieben: Ausländische Akteure buchen ganz normal Anzeigen bei den großen Plattformen und bezahlen dafür. So landen manipulative Inhalte auf Millionen von Bildschirmen. Die Ermittlungen von 2016 zeigten bereits drastische Beispiele: Anzeigen mit Hillary Clinton als Teufelsgestalt im Boxkampf gegen Jesus, darunter der Text „Klicke auf Gefällt mir, wenn Du möchtest, dass Jesus gewinnt“.

Solche Anzeigen sprechen gezielt konservative Christen an und transportieren klare politische Botschaften. Nur ein Beispiel von vielen, die zeigen, wie „subtil“ hier vorgegangen wird. Die großen Plattformen haben das nicht nur zugelassen, sondern daran auch noch gut verdient.

KI macht Manipulation noch einfacher

Heute ist das Problem noch größer geworden. Mit KI-Tools wie ChatGPT, Midjourney und anderen können Akteure in Minuten überzeugende Fake-Inhalte erstellen. Deepfake-Videos von Politikern, die nie existiert haben, perfekt getextete Anzeigen in verschiedenen Sprachen, automatisch generierte Profile – die Hürden sind drastisch gesunken.

Wer eine Anzeige schalten will, muss sie online einreichen. Dann prüfen Algorithmen und teilweise Mitarbeiter, ob sie den Werberichtlinien entspricht. Das Problem: Diese Prüfungen sind oft oberflächlich und werden von immer raffinierteren Umgehungsstrategien ausgetrickst.

Das Perfide an Google, Meta und X: Man kann extrem gezielt bestimmte Personengruppen ansprechen – nach Region, Alter, politischer Gesinnung, sogar nach Stimmungslage. Von diesen Targeting-Möglichkeiten machen nicht nur Werbetreibende Gebrauch, sondern eben auch ausländische Einflussakteure.

TikTok als neuer Problemfall

Neben den etablierten Plattformen ist TikTok zu einem besonderen Sorgenkind geworden. Die Plattform gehört dem chinesischen Konzern ByteDance und steht unter Verdacht, Daten an die chinesische Regierung weiterzugeben. Gleichzeitig erreicht TikTok vor allem junge Wähler – eine demografisch wichtige Gruppe.

2024 haben US-Behörden hunderte koordinierte Accounts aufgedeckt, die systematisch politische Inhalte verbreitet haben. Dabei ging es nicht nur um die Präsidentschaftswahl, sondern auch um lokale Wahlen, Referenden und gesellschaftliche Themen wie Klimawandel oder Impfungen.

Das Volumen ist erschreckend: X hat in den letzten Jahren über 150.000 verdächtige Accounts gesperrt. Meta berichtet von koordinierten Kampagnen, die hunderte Millionen Menschen erreicht haben. Google meldet tausende Videos und Anzeigen, die Millionen Mal angezeigt wurden.

Subtile Stimmungsmache statt direkter Werbung

Die identifizierten Kampagnen erwähnen oft gar nicht direkt Kandidaten oder Wahlen. Stattdessen greifen sie kontroverse Themen auf: Waffenrecht, Abtreibung, Migration, Rassismus, LGBTQ+-Rechte. Diese Themen polarisieren stark und mobilisieren Wähler.

Besonders perfide: Die Kampagnen nutzen oft beide Seiten eines Themas. So werden gleichzeitig Pro- und Contra-Gruppen mit gezielten Inhalten bespielt – nicht um eine Meinung durchzusetzen, sondern um die Gesellschaft zu spalten und Vertrauen in demokratische Prozesse zu untergraben.

Die Verantwortlichen nutzen dabei geschickt das Microtargeting der Plattformen. Sie wissen genau, welche Botschaften in welchen Regionen funktionieren. Das setzt detaillierte Kenntnisse der politischen Landschaft voraus – ein Indiz dafür, dass oft lokale Unterstützer involviert sind.

Regulierung kommt schleppend voran

Trotz jahrelanger Diskussionen und Anhörungen im Kongress hat sich wenig geändert. Der Digital Services Act der EU geht deutlich weiter als US-Gesetze. Dort müssen Plattformen transparenter über ihre Algorithmen und Werbetreibende informieren.

In den USA kündigen die Tech-Konzerne regelmäßig Verbesserungen an: bessere KI-Systeme zur Erkennung, mehr menschliche Prüfer, transparentere Werberichtlinien. Doch die Umsetzung hinkt hinterher – und die Angreifer werden parallel immer raffinierter.

Mark Zuckerberg, Elon Musk und Co. wirken bei Anhörungen zerknirscht und geloben Besserung. Doch echte strukturelle Änderungen bleiben aus. Zu groß ist das Geschäft mit personalisierter Werbung, zu komplex die technischen Herausforderungen.

Was müsste sich ändern?

Experten fordern seit Jahren schärfere Transparenzregeln: Wer schaltet welche Anzeige? Mit welchem Budget? An welche Zielgruppe? Einige Plattformen haben bereits Werbebibliotheken eingeführt, doch diese sind oft unvollständig oder schwer durchsuchbar.

Außerdem bräuchte es internationale Kooperation. Wenn China, Russland oder andere Staaten systematisch in ausländische Wahlen eingreifen, ist das ein Fall für Geheimdienste und Diplomatie – nicht nur für die Plattformen.

Die Macht der sozialen Netzwerke ist heute größer denn je. Sie entscheiden, welche Informationen Millionen Menschen sehen. Diese Verantwortung nehmen sie nicht ernst genug. Demokratien weltweit müssen endlich handeln – bevor das Vertrauen in Wahlen und Politik endgültig zerstört ist.

Denn eins ist klar: Die nächste Wahlbeeinflussung kommt bestimmt. Und sie wird noch raffinierter sein als alles, was wir bisher gesehen haben.

Zuletzt aktualisiert am 31.03.2026