Fehler im System: Wenn Suizid-Videos bei TikTok kursieren

Angeblich „soziale“ Netzwerke erweisen sich immer wieder als das Gegenteil von sozial: Jetzt ist ein als Live-Stream auf Facebook verbreiteter Suizid als Video auf anderen Plattformen verteilt worden – und vor allem TikTok ist es nicht gelungen, das Desaster einzudämmen. Das vor allem von Jugendlichen genutzte Netzwerk wird immer wieder seiner Verantwortung nicht gerecht.

Ein Mann bringt sich selbst um – und streamt den Suizid live auf Facebook. Was sagt es über unsere Welt aus, wenn Menschen auf eine solche Idee kommen?

Ich möchte nicht über die Motive spekulieren. Wohl aber mein völliges Unverständnis darüber äußern, wieso es immer wieder vollkommen von jeder Verantwortung Entkoppelte gibt, die so ein Video nicht nur anschauen, sondern auch noch weiter verbreiten.

TikTok wird vor allem von Minderjährigen genutzt

Live gestreamt und x-fach kopiert

Die Aufzeichnung des Suizids ist dann bei Facebook, Twitter und TikTok gelandet. Nicht einmal, sondern viele, viele Male. Die Netzwerke waren bemüht, das Suizid-Video zu entfernen – auch das immer wieder, weil es viele Verrückte gibt. Viel zu viele.

Angeblich wurden auch die Konten all jener Nutzer/innen gesperrt, die versucht haben, das Suizid-Video erneut hochzuladen. Wobei ich an dieser Stelle anmerken möchte: Diese Personen gleich an die Staatsanwaltschaft und vielleicht auch an die Psychiatrie weiterzuleiten, das wäre auch ein guter Gedanke. Jedenfalls einer, der mir gefallen würde.

Peinliches Statement von TikTok

Aber so etwas machen angeblich „Soziale“ Netzwerke nicht. Sie stellen lieber nüchtern auf Twitter fest wie das umstrittene TikTok:

„Unsere Systeme haben diese Videoclips automatisch erkannt und markiert, die gegen unsere Community-Regeln verstoßen haben.“

Geschmacklos. Eiskalt. Wie ein Text aus einer seelenlosen Amtsstube. Das Video eines Suizids verstößt also gegen die Community-Regeln. Diese Feststellung ist von „sozial“ so weit entfernt wie wir vom anderen Ende der Galaxie.

[av_video src=’https://vimeo.com/426223996′ mobile_image=“ attachment=“ attachment_size=“ format=’16-9′ width=’16‘ height=’9′ conditional_play=“ av_uid=’av-8348h8r‘]

Verstörende Inhalte kursieren viel zu lange

Doch damit nicht genug. Offensichtlich ist es Facebook noch einigermaßen gut gelungen, das Video (und die vielen Kopien) schnell zu identifizieren – und aus dem Netz zu entfernen. Ausgerechnet TikTok aber – dem derzeit liebsten virtuellen Spielplatz für Kinder und Jugendliche – gelingt das nicht.

User berichten darüber, dass ihnen das Suizid-Video immer wieder präsentiert wurde. Einige haben das Video sogar gemeldet – von den überforderten Moderatorinnen und Moderatoren bei TikTok aber den Hinweis erhalten, das ginge schon klar.

Wie kann sowas sein?

Ich frage mich: Wie kann es sein, dass ein Netzwerk, das eindeutig vor allem von Kindern und Jugendlichen genutzt wird, andauernd gegen Gesetze verstoßen kann – und nichts passiert?

Ein Netzwerk, das es ermöglicht, dass Morde oder Selbstmorde live gestreamt und/oder Aufzeichnungen immer wieder online gestellt werden, hat nicht nur ein riesiges Problem, sondern ist vor allem selbst eins.

 

SCHIEB+ Immer bestens informiert

Schieb+ Tarife
Nach oben scrollen