TikTok: Challenges, die lebensgefährlich sein können

von | 24.11.2021 | Social Networks

Mutproben werden heute nicht mehr im Klassenzimmer ausgedacht, sondern kursieren auf TikTok und Instagram: Jugendliche begeben sich zunehmend in große Gefahr – weil andere es vormachen. Da sehe ich keineswegs nur die Plattformen in der Pflicht.

Junge Menschen machen dummes Zeug – das war schon immer so.

Keine Frage: Auch Erwachsene machen dumme Sachen, nur anders, nicht besser. Doch Jugendliche müssen geschützt und vor lebensbedrohlichen Einfällen bewahrt werden. Das sollten alle Menschen mit ausreichend Verantwortungsbewusstsein so sehen. Die Video-Plattformen wie TikTok, Instagram und YouTube sehen es offensichtlich nicht so.

TikTok ist nicht das Problem selbst, sondern Teil des Problems

TikTok ist nicht das Problem selbst, sondern Teil des Problems

Challenges: Mutproben ohne und mit Risiko

TikTok hat unbestreitbar die Art und Weise verändert, wie junge Menschen dummes Zeug machen – und in welchem Tempo sich selbst verrückteste „Mutproben“ weltweit verbreiten. Auf TikTok sind Menschen zu sehen, die sich an Klippen in die Tiefe stürzen. Menschen, die Wände hochlaufen oder über Brücken springen (weil sie es können). Es gibt jede Menge Videos, die „coole“ Sachen zeigen – und zum Nachahmen animieren. Weil man ja auch gerne cool wäre. Für Ungeübte aber den sofortigen Tod zur Folge haben könnten.

Besonders beliebt sind „Challenges“: Aufgaben, die um die Welt gehen. Die #IceBucketChallenge ist ein berühmtes Beispiel aus der Vergangenheit. Menschen überschütteten sich freiwillig mit eiskaltem Wasser, um auf die Nervenkrankheit Amyotrophe Lateralsklerose (ALS) aufmerksam zu machen. Hier gab es einen guten Zweck – und niemand brachte sich ernsthaft in Gefahr.

Neue Generation gefährlicher Trends

Doch viele aktuelle Challenges sind extrem riskant. 2024 und 2025 haben wir eine Welle neuer, teilweise tödlicher Trends erlebt. Die „Blackout Challenge“ forderte Jugendliche auf, sich selbst zu würgen, bis sie das Bewusstsein verlieren – mehrere Todesfälle waren die Folge. Die „Boat Jumping Challenge“ veranlasste Menschen dazu, von fahrenden Booten zu springen, was zu schweren Verletzungen führte.

Besonders perfide: die „Skull Breaker Challenge“, bei der drei Personen springen, aber die Person in der Mitte heimlich zu Fall gebracht wird. Das kann zu Schädel-Hirn-Traumata führen. Die „Milk Crate Challenge“ sorgte für unzählige Knochenbrüche, als Menschen versuchten, über wackelige Milchkisten-Pyramiden zu laufen.

Aktuell kursiert die „Angel of Death Challenge“, die Jugendliche dazu aufruft, gefährliche Drogen zu mischen. Auch die „Fire Challenge“ ist wieder da: Menschen entzünden Körperteile und filmen dabei. Die Liste wird ständig länger.

Besonders populär und gefährlich: Benadryl Challenge

Besonders populär und gefährlich: Benadryl Challenge

Algorithmen befeuern das Problem

Das eigentliche Problem liegt in den Algorithmen. Die Plattformen belohnen extremen Content mit mehr Reichweite. Je schockierender, desto mehr Views. Je mehr Views, desto höher die Werbeeinnahmen. Ein Teufelskreis, der bewusst Menschenleben riskiert.

Studien zeigen: TikToks Algorithmus schlägt Jugendlichen nach dem ersten gefährlichen Challenge-Video innerhalb von Minuten weitere vor. Die Plattform führt User systematisch in Rabbit Holes extremer Inhalte. Meta (Instagram, Facebook) und YouTube haben ähnliche Probleme.

Besonders erschreckend: Eine 2025 veröffentlichte Studie des Deutschen Jugendschutz-Instituts ergab, dass 8 Prozent der 13-17-Jährigen bereits an riskanten Online-Challenges teilgenommen haben. Bei den 13-14-Jährigen waren es sogar 12 Prozent. Die Zahlen steigen kontinuierlich.

Plattformen versagen beim Jugendschutz

Trotz öffentlichen Drucks unternehmen die Plattformen zu wenig. Zwar werden die offensichtlichsten Challenge-Videos gelöscht, aber die Algorithmen funktionieren weiter wie gehabt. Content-Moderation ist reaktiv, nicht proaktiv. Gefährliche Trends verbreiten sich schneller, als sie gelöscht werden können.

TikTok hat zwar 2025 ein „Safety Advisory Board“ eingerichtet und verspricht bessere KI-Erkennung gefährlicher Inhalte. Doch gleichzeitig werden täglich Millionen neuer Videos hochgeladen. Die Moderation kann gar nicht mithalten.

Meta kündigte „Wellness-Pausen“ für Jugendliche an und will bei kritischen Inhalten Warnhinweise einblenden. YouTube führte schärfere Community Guidelines ein. Doch all das sind Pflaster auf klaffenden Wunden.

Gesellschaftliches Versagen

Und um es deutlich zu sagen: Die Plattformen sind nur ein Teil des Problems, nicht das Problem an sich. Wie degeneriert ist eine Gesellschaft, die junge Menschen dazu motiviert, sich und andere unentwegt in Gefahr zu bringen – und es nicht mal zu merken, geschweige denn etwas dagegen zu unternehmen?

Das Problem fängt schon vor TikTok an. Bei der Verachtung für funktionales Handeln bei gleichzeitiger Vergötterung des Dysfunktionalen generell. Ob bei RTL im Dschungelcamp, in zerstörerischen Reality-Shows, in Hollywood-Filmen oder Netflix-Serien, die Selbstverletzung glorifizieren – überall wird extremes Verhalten als „authentisch“ und „mutig“ verkauft.

Influencer verdienen Millionen mit gefährlichen Stunts. Eltern filmen ihre Kinder bei riskanten Aktionen für Social Media. Schulen sind überfordert. Politik reagiert viel zu langsam.

Was getan werden muss

Wir brauchen dringend schärfere Gesetze. Der EU Digital Services Act ist ein Anfang, aber reicht nicht. Plattformen müssen für algorithmic amplification gefährlicher Inhalte haftbar gemacht werden. Nicht nur für das Löschen einzelner Videos.

Schulen müssen Digital Literacy lehren – nicht nur Informatik, sondern kritisches Denken über Online-Inhalte. Eltern brauchen bessere Aufklärung und Tools für Kontrolle.

Und wir alle müssen aufhören, wegzuschauen, wenn junge Menschen sich für Clicks in Lebensgefahr bringen. So wie Corona viele gesellschaftliche Probleme sichtbar machte, deckt auch TikTok unsere kollektiven Versäumnisse beim Jugendschutz auf.

Zuletzt aktualisiert am 23.02.2026