Der damalige US-Präsident behauptete im Fernsehen und online, er hätte die Wahl 2020 gewonnen – während er gleichzeitig die Demokraten beschuldigte, „die Wahl gestohlen“ zu haben. Solche gefährlichen Äußerungen, die einer Demokratie schaden können, werden in den Sozialen Netzwerken weiterhin verbreitet. Nach Jahren der Diskussion und trotz neuer EU-Gesetze brauchen wir noch immer wirksamere, verbindliche Regeln für alle Akteure.
Als dieser Blogpost ursprünglich geschrieben wurde, stand das Ergebnis der US-Präsidentschaftswahl 2020 noch nicht fest. Heute wissen wir: Joe Biden gewann die Wahl, aber die Ereignisse danach – vom 6. Januar 2021 bis zu den anhaltenden Diskussionen über Wahlbetrug – zeigen, wie gefährlich unbelegte Behauptungen in sozialen Medien sein können.
Wie Trump Twitter als politische Waffe nutzte
Donald Trump stellte sich damals vor Kameras und proklamierte seinen Wahlsieg, obwohl noch nicht alle Stimmen ausgezählt waren. Das geschah nicht nur im Fernsehen, sondern auch im Livestream auf Twitter. 10:24 Minuten lang feierte sich der Präsident selbst – ohne dass die Plattform eingriff oder das Video kennzeichnete.
Mehr noch: Trump behauptete erneut, sollte er nicht als Wahlsieger dastehen, könne das nur an Manipulation liegen. Ein Tweet mit dem Inhalt „They are trying to STEAL the election“ wurde zwar mit einer Warnung versehen, blieb aber online und wurde millionenfach geteilt.
Was sich seit 2020 verändert hat – und was nicht
Seit den Ereignissen von 2020 hat sich einiges getan. Twitter (heute X unter Elon Musk) hat seine Moderationsrichtlinien mehrfach geändert. Trump wurde zeitweise gesperrt, ist aber längst zurück. Andere Plattformen wie Truth Social, Parler oder Telegram haben als „freie Meinungsräume“ an Bedeutung gewonnen – oft mit noch weniger Moderation.
In Europa trat 2024 der Digital Services Act (DSA) in Kraft, der große Plattformen zu schärferer Moderation verpflichtet. Doch die Umsetzung ist schwierig, und viele problematische Inhalte schlüpfen weiterhin durch die Maschen. Besonders problematisch: Algorithmen verstärken oft emotionale, polarisierende Inhalte – weil sie mehr Engagement erzeugen.
KI macht das Problem noch komplexer
Seit 2023 sind KI-generierte Inhalte ein neues Problem. Deepfakes von Politikern, gefälschte Audio-Aufnahmen oder manipulierte Videos lassen sich heute in Minuten erstellen. Während der EU-Wahlen 2024 und verschiedener nationaler Wahlen tauchten bereits erste Fälle auf. Die Technologie wird immer besser, die Erkennung hinkt hinterher.
Plattformen wie Meta, TikTok oder YouTube haben zwar Erkennungstools entwickelt, aber die funktionieren oft nur bei offensichtlichen Fälschungen. Subtile Manipulationen oder aus dem Kontext gerissene, aber technisch echte Inhalte sind schwerer zu identifizieren.
Warum Warnhinweise nicht ausreichen
Die Erfahrung zeigt: Warnhinweise haben begrenzte Wirkung. Studien belegen, dass sie manchmal sogar kontraproduktiv sind – sie machen Nutzer erst recht neugierig auf den Inhalt dahinter. Trump-Anhänger interpretierten Warnungen als Beweis für „Zensur“ durch „Big Tech“.
Livestreams werden oft gar nicht moderiert, weil die Überprüfung in Echtzeit schwierig ist. Bis problematische Inhalte erkannt werden, haben sie bereits tausende Zuschauer erreicht und werden weiterverbreitet.
Donald Trump nutzte Twitter wie eine Fernbedienung für seine Anhänger. Er wusste genau, welche Knöpfe er drücken musste. Und weil die Plattformen das zuließen – aus rechtlichen Gründen oder weil Kontroversen gut fürs Geschäft sind – funktionierte es.
Neue Herausforderungen: Von Telegram bis TikTok
Das Problem hat sich seit 2020 verlagert und vervielfältigt. Telegram wurde zur wichtigsten Plattform für Verschwörungstheorien und Desinformation in Deutschland. Die App moderiert kaum und löscht selten Inhalte. TikToks Algorithmus kann politische Meinungen junger Nutzer stark beeinflussen – oft ohne dass sie es merken.
Parallel entstehen immer neue, kleinere Plattformen, die bewusst als „zensurfreie“ Alternativen vermarktet werden. Dort sammeln sich oft besonders radikale Stimmen, die dann wieder zurück in den Mainstream schwappen.
Was wir jetzt brauchen: Konkrete Regeln
Nach Jahren der Diskussion und trotz neuer Gesetze brauchen wir immer noch klarere, durchsetzbare Regeln. Besonders in den Wochen vor Wahlen sollten strengere Standards gelten:
- Keine unbelegten Behauptungen über Wahlbetrug oder -manipulation
- Kennzeichnungspflicht für KI-generierte politische Inhalte
- Transparenz über Algorithmen, die politische Inhalte verstärken
- Schnelle Reaktionszeiten bei gemeldeten Verstößen
- Echte Konsequenzen auch für prominente Accounts
- Internationale Kooperation bei grenzüberschreitender Desinformation
Die Plattformen müssen endlich Verantwortung übernehmen. Wenn Anstand und Eigenverantwortung versagen, muss die Regulierung greifen. Demokratie ist zu wichtig, um sie den Algorithmen zu überlassen.
[av_video src=’https://vimeo.com/426245691′ mobile_image=“ attachment=“ attachment_size=“ format=’16-9′ width=’16‘ height=’9′ conditional_play=“ av_uid=’av-k1gha3′]
Zuletzt aktualisiert am 27.02.2026

