Facebook, Instagram, WhatsApp, früher waren dies alles voneinander unabhängige Dienste. Nicht geräuschlos, aber doch für den einen oder anderen Anwender nicht ganz so offensichtlich sammeln diese (und viele andere) sich jetzt unter dem Dach von Meta. Wollt ihr, dass die Dienste miteinander kommunizieren können? Dann müsst ihr handeln!
In einer Welt, in der Smartphones und soziale Medien den Alltag von Kindern und Jugendlichen dominieren, kämpfen Eltern oft um die Kontrolle über die digitale Erfahrung ihrer Kinder.
Doch jetzt zeichnet sich eine Wende ab: Instagram, eine der beliebtesten Plattformen unter Teenagern, führt „Teen-Konten“ ein – ein Werkzeug, das Eltern mehr Einfluss und Schutz verspricht.
Diese neue Initiative von Instagram könnte ein Wendepunkt im ewigen Tauziehen zwischen elterlicher Fürsorge und jugendlicher Freiheit im digitalen Raum sein. Aber was genau bieten diese Teen-Konten? Und können sie wirklich die Lösung für besorgte Eltern sein?
Eltern haben kaum Kontrolle über ihre Kinder
Sobald Kinder oder Jugendliche zum ersten Mal ein eigenes Smartphone bekommen, beginnt für Eltern eine schwierige Zeit: Sie verlieren nach und nach einen großen Teil der Kontrolle über ihre Kinder.
Über das, was sie sehen, was sie anschauen, was sie lesen, womit sie sich beschäftigen, welche Themen an sie herangetragen werden, mit wie sie sich austauschen und selbst, wie intensiv sie Apps nutzen. Schließlich sind die Geräte so klein, dass niemand immer „aufpassen“ kann. Völlig unmöglich.
Eltern verlieren bislang viel zu leicht die Kontrolle
Und dann kommen noch die unbestreitbaren Bedrohungen durch Plattformen wie Tiktok und Instagram dazu: Sie zeigen den Minderjährigen nicht selten Inhalte, die nicht altersgerecht sind und sie sogar verstören können. Auch gibt es viele Inhalte, die zu absurden Körperbildern und infolge zu Essstörungen und sogar schweren psychischen Problemen führen können.
Spätestens, seitdem Whistleblowerin Frances Haugen als Ex-Mitarbeiterin beim Facebook-Konzern den Betreibern von Instagram vorgeworfen hat, alle die schlechten und gefährlichen Einflüsse nicht nur zu kennen, sondern sogar aus wirtschaftlichen Gründen teilweise zu befördern, wächst der politische Druck auf den Meta-Konzern, der Instagram betreibt. Sogar in den USA, aber auch in Europa.
„Teen“-Konten geben Eltern die Kontrolle zurück
Jetzt hat der Konzern ein Lösungspaket eingeführt, „Teen-Konten“ genannt, das Eltern mehr Macht und Kontrolle über die Inhalte gibt, die ihre Kinder auf Instagram zu sehen bekommen.
Eltern können in Zukunft das Verhalten ihrer Kinder auf Instagram kontrollieren und auch vieles bestimmen, etwa wie viel Zeit die Kinder überhaupt mit der App verbringen dürfen. Nach 60 Minuten pro Tag erscheinen Aufforderungen, die App zu beenden. Nachts wird die App automatisch deaktiviert.
Teen-Konten sind standardmäßig privat. Teenager müssen neue Follower also erst akzeptieren, damit die ihre Beiträge sehen können. Bei Teen-Konten gelten die strengsten Messaging-Einstellungen, die User können nur Nachrichten von Personen erhalten, denen sie folgen oder mit denen sie bereits in Kontakt stehen – in der Regel also ihre eigenen Freunde.
Schutz vor Cyber-Grooming
Das soll insbesondere Cyber-Grooming verhindern: Dabei versuchen Erwachsene sich als Jugendliche auszugeben und kontaktieren fremde Kinder und Jugendliche. Eltern können sehen, mit wem ihre Kinder in Kontakt stehen; sie können nicht die eigentlichen Chat-Nachrichten sehen. Auch das erlaubt eine Kontrolle und Aufsicht.
Eltern und Kinder können selbst entscheiden, wie „scharf“ einzelne Funktionen eingestellt sind. Dazu müssen Eltern ihre Instagram-Konten mit denen ihrer Kinder verbinden. Die Schutzmaßnahmen sind bis zum 16. Lebensalter vorgesehen.
Kinder geben häufig ein falsches Alter an
Prinzipiell dürfen erst Kinder ab 13 Jahren Instagram benutzen. Weil das so ist, schummeln viele bei der Angabe des eigenen Alters, sie machen sich älter als sie sind. Marie von Stauffenberg von Meta räumt ein, dass das durchaus ein bekanntes Problem sei, doch der Meta-Konzern versuche nun verstärkt, mit Hilfe von KI die Nutzungsgewohnheiten zu erkennen und grobe Falschangaben beim Alter zu erkennen.
Die Folge: Identifizierte Nutzer werden in Teen-Konten umgewandelt, mit der Möglichkeit, die Einschränkungen loszuwerden, für den Fall, dass ein Irrtum vorliegt.
Marie von Stauffenberg vom Meta-Konzern erklärt: „Altersverifikation beschäftigt die gesamte Industrie. Wir wünschen uns eine idealerweise europaweite Regelung dafür“, etwa eine einheitliche Art der Altersverifikation, die für alle Plattformen einheitlich genutzt werden kann. Meta möchte eine Debatte über einfach nutzbare Kontrollmechanismen für Eltern über Apps verschiedener Anbieter hinweg voranbringen.
Dieser Wunsch lässt sich leicht erklären: Zum einen wäre es zweifellos nützlich, wenn es einheitliche plattformübergreifende Standards für Altersverifikation und Eltern-Kontrolle gäbe. Zum anderen möchte Meta natürlich verhindern, dass nun die strenger kontrollierten Kinder einfach zu einer in dieser Hinsicht offeneren Plattform wie Tiktok wechseln.
Teen-Konten kommen bis Ende des Jahres
Die neuen Teen-Accounts werden zunächst in USA, Großbritannien, Kanada und Australien eingeführt. In der EU soll es die verbesserten Möglichkeiten für Eltern bis Jahresende geben. Später soll es Teen-Konten auch auf anderen Meta-Plattformen geben, etwa Facebook (dass Jugendliche ohnehin kaum nutzen), WhatsApp und Threads.
Auch TikTok hat kürzlich mehrere Maßnahmen zum Schutz von Kindern und Jugendlichen eingeführt. Dazu gehören die Deaktivierung von Direktnachrichten für Nutzer unter 16 Jahren und Einschränkungen bei Kommentaren. Ein begleiteter Modus ermöglicht Eltern, die Einstellungen ihrer Kinder zu kontrollieren, während eine Zeitmanagement-Funktion die tägliche Nutzungsdauer begrenzt.
Zusätzlich wurden Voreinstellungen für mehr Privatsphäre implementiert und ein eingeschränkter Modus soll vor ungeeigneten Inhalten schützen. TikTok hat auch eine Schlafenszeitsperre für App-Benachrichtigungen angekündigt. Trotz dieser Bemühungen hat die EU-Kommission ein Ermittlungsverfahren eingeleitet, um die Angemessenheit des Jugendschutzes auf der Plattform zu überprüfen.
Es zeigt sich: Politischer Druck kann einiges bewirken.
Soziale Netzwerke lassen sich aus unserem Leben kaum noch wegdenken. Dass mit der Nutzung ein Risiko verbunden ist, liegt auf der Hand: Das Internet vergisst nichts, zumindest nicht übergreifend und schnell. Aus diesem Grund sollten Sie ein wenig Zeit in die Privatsphären-Einstellungen investieren.
Was tun, wenn das Smartphone zur Gefahr wird? Erfahren Sie, wie Sie die Kontrolle über die Social-Media-Nutzung Ihrer Kinder behalten und welche Maßnahmen Meta und andere Institutionen ergreifen, um junge Nutzer zu schützen.
Soziale Netzwerke wie Instagram und TikTok sind bei Kindern und Jugendlichen äußerst beliebt, doch die Risiken sind nicht zu unterschätzen.
Cybermobbing, gefährliche Challenges und der zunehmende Druck durch soziale Medien sind nur einige der Probleme, die Eltern kennen sollten. Doch es gibt Wege, wie Eltern und Medienscouts den Umgang mit diesen Plattformen sicherer gestalten können. Was sollten Sie wissen, um Ihre Kinder zu schützen?
Instagram und TikTok: Beliebt, aber mit Risiken
Die beiden Apps sind bei Kindern und Jugendlichen besonders beliebt, bergen jedoch unbestreitbar zahlreiche Risiken: Cybermobbing, Suchtpotenzial, gefährliche Challenges, Essstörungen bis hin – in seltenen Fällen – zum Suizid. Ein solcher Fall wird gerade von einem US-Berufungsgericht verhandelt: Eltern hatten Tiktok verklagt, weil sie bei Ausübung einer „Blackout Challenge“ auf Tiktok zu Tode gekommen ist.
Das sind zweifellos Extremfälle. Doch TikTok und Instagram stehen zunehmend in der Kritik – und unter Beobachtung. Vermutlich ein Grund, wieso Anbieter Meta eine Informationsveranstaltung wie „Screen smart, fit fürs Netz“ in Düsseldorf macht, zusammen mit Vertretern der Bundeszentrale für Kinder- und Jugendmedienschutz und der Landesanstalt für Medien NRW (LfM).
Meta will Eltern mehr ins Boot holen
Ziel: Für den richtigen Umgang mit der App zu werben und auch Eltern mit ins Boot zu holen, die die Nutzung ihrer Kinder überwachen und kontrollieren können. Wenn sie nur die richtigen Einstellungen vornehmen und Funktionen nutzen, die es für Eltern durchaus gibt. Doch die meisten Eltern sind damit eher überfordert.
Marie von Stauffenberg von Meta, die unter anderem für Jugend-Medienschutz verantwortlich ist, erklärt ausdrücklich, dass Instagram erst ab 13 Jahren genutzt werden darf und dass Eltern „eine ganz zentrale Rolle dabei haben“. „Wir helfen, indem wir Eltern-Aufsichtstools anbieten. Hier wird das Konto der Eltern mit dem Konto der Kinder verknüpft.“
Dadurch haben Eltern einen gewissen Einblick und könne Limits festlegen. Allerdings verlangt die Funktion einige Fähigkeiten, längst nicht alle schaffen das.
Medienscouts helfen Schülern im Netz
„Ich habe keinen Stress mit Challenges und Cybermobbing“, erklärt die Schülerin Lara Büsges aus Neuss wie selbstverständlich auf einer Informationsveranstaltung in Düsseldorf. „Ich habe meinen Instagram-Account auf privat gestellt.“
Das Beste, was man als Jugendlicher machen kann. Wären mal alle Kinder und Jugendlichen so umsichtig wie Lara, dann gäbe es deutlich weniger Schwierigkeiten mit Apps wie Instagram und Tiktok
Die umsichtige Schülerin Lara kennt sich bestens aus mit den Risiken von Social Media und den Einstellmöglichkeiten, sie ist Medienscout der Landesanstalt für Medien NRW (LfM). Ein Medienscout wird von Experten der LfM geschult im richtigen Umgang mit Medien.
Medienscouts sind Schülerinnen und Schüler, die speziell darin ausgebildet werden, ihre Mitschüler im sicheren und verantwortungsvollen Umgang mit digitalen Medien zu unterstützen und zu beraten – etwa auf entsprechenden Schulungen im Unterricht.
Die Erfahrung zeigt: Schüler lassen sich lieber von anderen Schülern zeigen, wie sie sicher im Netz unterwegs sein können – sie sprechen dieselbe Sprache. Solche Scouts werden unter anderem durch Initiativen wie der Landesanstalt für Medien Nordrhein-Westfalen ausgebildet.
Schüler können beim Alter schummeln
Prinzipiell dürfen erste Kinder ab 13 Jahren Instagram benutzen. Doch viele schummeln beim Alter und machen sich älter als sie sind. Marie von Stauffenberg von Meta räumt ein, dass das ein Problem sei, doch der Meta-Konzern versuche auch algorithmisch, solche Schummeleien zu erkennen.
Von Stauffenberg: „Altersverifikation beschäftigt die gesamte Industrie. Wir wünschen uns eine idealerweise europaweite Regelung dafür“, etwa eine einheitliche Art der Altersverifikation, die für alle Plattformen einheitlich genutzt werden kann.
Meta betont, dass der Konzern 50 Tools für den Jugendschutz da sind. Dieses Jahr wurden stärkere Inhaltskontrollen in Bereichen wie Selbstverletzung oder Essstörungen; hier werden zusätzliche Informationen angezeigt.
Whistleblowerin Frances Haugen
Es ist eine Menge in Bewegung gekommen, seitdem die Ex-Meta-Mitarbeiterin und Whistleblowerin Frances Augen im September 2021 öffentlich den Meta-Konzern angeklagt hat. Haugen klagt an, dass der Konzern nicht nur nicht genug für Kinder- und Jugendschutz tut, sondern sogar ganz bewusst Umsatzwachstum vor die mentale Gesundheit der Jugendlichen gestellt hat.
Marie von Stauffenberg weist die Vorwürfe erwartbar zurück. Doch seit diesen Vorwürfen beschäftigt sich auch die US-Regierung intensiv mit diesen Vorwürfen und ist auch Meta-Chef Mark Zuckerberg in einem Ausschuss hart ins Gericht gegangen.
Apple und Meta wollen ihre angekündigten KI-Modelle in der EU nicht ausrollen – angeblich seien die juristischen Risiken aufgrund der Regeln in der EU zu hoch. Begründete Sorge oder Machtspielchen?
KI, KI, KI – es gibt in der Digitalbranche kaum noch ein anderes Thema. Das liegt daran, dass sich die Entwicklung von KI seit der Einführung von ChatGPT in schier atemberaubendem Tempo weiter entwickelt.
Die großen KIs werden in den USA entwickelt, nicht in Europa. Doch Europa hat als erster Kontinent eine Regulierung, den „AI Act“, der das Tempo der Entwicklung bremst.
Mittlerweile sagen erste Konzerne wie Apple oder Meta, dass sie ihre neuesten KI-Lösungen gar nicht erst in Europa anbieten wollen. Aus rechtlichen Gründen. Kann das gewollt gewesen sein und vor allem, ist das vernünftig?
Apple und Meta wollen ihre KI nicht in die EU bringen
Apple und Meta haben jüngst erst neue KI-Modelle angekündigt, die Nutzern das Leben erleichtern sollen. Wieso kommen die jetzt zwar in USA, aber nicht in der EU?
Beide Konzerne argumentieren, dass es für sie entweder rechtlich viel zu unsicher wäre, mit den Lösungen auf den Markt zu kommen – im Fall von Apple übrigens nicht nur eine KI, sondern auch eine Technologie, die es erlaubt, auf einem Mac das iPhone fernzusteuern. Oder wenn man sich an die Regulierungen halte, befürchte man Risiken für Datenschutz und Privatsphäre.
Damit kritisieren die Konzerne weniger den „AI Act“, der KI-Anwendungen in Europa in Risikoklassen unterteilt und riskante KIs reguliert, sondern vielmehr den „Digital Markets Act“, der seit Mai 2023 vollständig gültig ist.
Der DMA verbietet es den großen Gatekeepern, eigene Produkte zu bevorzugen. Wenn also in Apples Betriebssystem ausschließlich die eigenen KI-Modelle integriert sind, könnte das schmerzhafte Bußgelder nach sich ziehen.
Aber auch der AI Act spielt eine Rolle und die hohen Datenschutzstandards, weil sich noch nicht immer genau sagen lässt, welche Daten von KI verarbeitet werden.
KI sollte für Facebook und Instagram trainiert werden
Viele können sich bestimmt erinnern: Vor ein paar Wochen haben Facebook und Instagram damit begonnen, die User zu fragen, ob ihre Daten für eine kommende Meta AI für das Training verwendet werden dürfen.
Das scheint erstmal vom Tisch. In den USA war es nicht erforderlich, die User vorher zu fragen.
Hierzulande ist noch nicht ganz klar, mit welchen Daten eine KI trainiert werden darf. Aber sehr wahrscheinlich ist eine solche Zustimmung tatsächlich erforderlich.
Das macht die Sache aber natürlich sehr kompliziert für Meta: Die müssten genau unterscheiden, welche Daten ins Training fließen dürfen und welche nicht. Wenn Du dagegen bist und ich kein Problem damit habe, was ist mit einem Kommentar von Dir auf ein Posting von mir? Wirklich schwierig.
Letztlich hat Meta argumentiert: Am Ende könnten wir den Nutzern in Europa nur eine zweitklassige KI anbieten, da wir sie nicht ausreichend trainieren können.
Auch das Argument ist nicht von der Hand zu weisen: Jede KI ist umso besser, je besser sie trainiert wurde. Nur: Irgendwo müssen die Daten ja herkommen.
Wenn alle super KIs wollen, aber wenn es geht nichts dafür bezahlen, aber bloß nicht die eigenen Postings analysiert werden dürfen – das geht unterm Strich einfach nicht.
Begründete Zurückhaltung oder Strategie?
Sind die öffentlichen Beschwerden von Apple, Meta und einigen anderen großen Konzernen und ihre Zurückhaltung, neue Produkte und Dienste in der EU einzuführen, also begründet – oder nur Strategie, damit sie von der EU-Kommission einen Persilschein bekommen?
Ich würde sagen: Beides!!!
Die möglichen Strafen bei Verstößen gegen den Digital Markets Act oder den AI Act sind mittlerweile enorm. Da wollen auch große Konzerne zu große Risiken vermeiden. Doch natürlich pokern die Konzerne auch ein wenig. Apple zum Beispiel hat jahrelang argumentiert, ein einheitliches Ladekabel mit USB-C würde Innovation verhindern. Jetzt haben auch iPhones eine Ladebuchse für USB-C.
Natürlich versuchen die Konzerne, den Rahmen abzustecken und die EU-Kommission zu Eingeständnissen bringen.
Hat die EU zu strenge Regeln?
Stellt sich doch die wichtigste Frage überhaupt: Sind die Regeln in Europa zu streng und verhindern Innovation oder schützen sie die Menschen?
Aus Sicht der Konzerne ist das sicher so. Lobo schreibt auch, es gäbe „in Teilen der EU-Politik, der Medienlandschaft und der Öffentlichkeit überraschend häufig eine strukturell anti-fortschrittliche Haltung: eine Ideologie der Tech-Verachtung.“
Ganz so weit würde ich nicht gehen. Aber die Argumente sind wichtig, um sich zu fragen, ob alle Regeln wirklich sinnvoll sind und den Menschen helfen.
In den USA haben wir die fortschrittlichste KI der Welt, in Asien die effizienteste (weil es da gar keine Regeln gibt, die Menschen schützen) – und in Europa die regulierteste. Ist das hilfreich?
Wir alle ärgern uns über Überregulierung beim Datenschutz: Die Konzerne spionieren uns immer noch aus. Ziel verfehlt. Aber beim Arzt müssen wir Formulare unterschreiben, dass der Arzt uns anschreiben darf – und im Kindergarten bekommen die Betreuerinnen Stressherpes, ob sie eine Whatsapp-Gruppe einrichten dürfen.
Aus Europa werden nicht die Speerspitzen der KI kommen (können). Aus vielen Gründen. Aber doch viele interessante Geschäftsmodelle und Ideen rund um die großen Ökosysteme. Wenn die in Europa nicht mehr eingesetzt werden können, ist niemandem geholfen.
Manchmal ist weniger mehr. Und trennschärfer formuliert.
Die EU hat ein offizielles Verfahren gegen Meta (Facebook, Whatsapp) eröffnet. Stein des Stoßes: Verdacht auf Desinformation und Wahlmanipulation.
Dieses Jahr ist Super-Wahljahr: Nicht nur Europawahl, sondern auch Landtagswahlen in Thüringen, Brandenburg und Sachsen.
Da kommt es eigentlich ganz besonders darauf an, dass die Bürger, die Menschen gut und vor allem richtig informiert werden. Doch das Gegenteil ist der Fall. In Sozialen Netzwerken kursieren so viele Falschnachrichten wie noch nie.
Viele mit der Absicht, Stimmung zu machen – vor allem gegen Europa. Die großen Plattformen wie Google oder Meta können sich da nicht mehr einfach so aus der Verantwortung stehlen.
Digital Services Act
Die EU-Kommission hat ein Verfahren gegen Meta eröffnet, den Mutterkonzern von Facebook und Instagram.
Die EU-Kommission will unter anderem prüfen, ob sich das US-Unternehmen an europäische Regeln gehalten hat im Umgang mit irreführender Werbung und Desinformationskampagnen auf den Plattformen Facebook und Instagram.
Seitdem der Digital Services Act (DSA) da ist, gibt es klare Regeln dafür – und auch rigide Strafen, wenn sich ein Unternehmen nicht an diese Regeln hält.
Bei den mutmaßlichen Verstößen geht es unter anderem darum, ob Meta die Verbreitung von irreführender Werbung im politischen Umfeld und vor allem Desinformationskampagnen in der EU ausreichend bekämpft. Daran gibt es begründete Zweifel, denn solche Kampagnen gibt es zuhauf auf den Plattformen.
Weiterer Punkt: Es wird geprüft, ob es wirklich ausreichende und auch ausreichend einfache Möglichkeiten auf den Plattformen gibt, damit sich User über einzelne Beiträge oder wiederholt Fake-Nachrichten und Desinformationen verbreitende Konten beschweren können. Beides verstieße eindeutig gegen den Digital Services Act.
Sind das also schon konkrete Vorwürfe?
Nein. Die Kommission betont, dass sie mit der Einleitung des Verfahrens lediglich einen Verdacht prüft, und dass die vorläufige Einschätzung der Behörde noch kein endgültiges Untersuchungsergebnis darstelle.
Weiterer Aspekt: Es ist mitunter schwierig, die genaue Lage zu untersuchen, denn der Meta-Konzern gewährt Forschern nicht genügend Daten und Informationen. Aber auch das verlangt der Digital Services Act ausdrücklich von einer Plattform dieser Größe. Meta muss da also nachliefern.
Wahlmanipulation auf Facebook und Instagram
Aber wie genau muss man sich denn Wahlmanipulation auf Social Media Plattformen vorstellen – es können ja nicht virtuelle Wahlplakate gemeint sein?
Es geht darum, dass auf den Plattformen massenweise Stimmung gemacht wird. Mit Falschinformationen, mit zugespitzten Behauptungen, aber auch und vor allem mit persönlicher Diffamierung von Politikern und Menschen aus deren Umfeld.
Und dabei geht es nicht um sachliche Kritik, sondern um überzogene oder unwahre Behauptungen, die aber oft leicht verfangen und das Meinungsbild der Bevölkerung verändern sollen – und es auch können.
Diesen Sommer wird das Europaparlament neu gewählt. Viele in der EU gehen davon aus, dass Russland versucht, Einfluss auf die Wahlen auszuüben. Französische Experten haben gerade erst ein russisches Desinformations-Netzwerk aufgedeckt, das kreml-freundliche Propaganda verbreitet hat.
All das läuft vor allem über die sogenannten „Sozialen Netzwerke“, denn das ist einfach und günstig.
Facebook markiert künftig KI-Fotos
Wir sprechen hier in regelmäßig über KI und Deepfakes, die auch oft in diesem Zusammenhang benutzt werden. Die werden immer besser und es kursiert davon immer mehr im Internet.
Was tut ein Konzern wie Meta dagegen?
Bislang wenig bis gar nichts. Doch aufgrund der zunehmend strengen Richtlinien in Europa kommt einiges in Bewegung. Metas Ingenieure zum Beispiel arbeiten daran, mit Hilfe von KI erstellte fotorealistische Aufnahmen – und nur hier besteht ein Risiko der Verwirrung oder Täuschung – mit geeigneten technischen Maßnahmen (unter anderem mit KI) automatisch zu erkennen und zu kennzeichnen.
Obwohl Deepfakes heute oft verblüffend echt aussehen, ist das gar nicht so schwierig, wie es sich anhört. Viele KI-Systeme, die Fotos erzeugen, markieren die erstellten Bilder (unsichtbar) schon jetzt automatisch. Das machen KIs wie Midjourney, Dall-E3, Artbreeder, Dream und viele andere.
Sie kennzeichnen die erzeugten Bilder sowohl durch entsprechende Angaben in den Metadaten der Bilder als auch durch unsichtbare Wasserzeichen. OpenAI hat diese Maßnahme erst Mitte Februar eingeführt. Sie sollen ab Mai – also jetzt – in Facebook eine Kennzeichnung „Made with AI“ erhalten. ; später auch auf Instagram. Noch ist das nicht am Start.
Langt nicht
Die automatische Kennzeichnung der KI erzeugte Inhalte ist ein sinnvoller Schritt, allerdings sicher kein „Game Changer“. Das Problem ist ja die schiere Masse der gezielten Desinformation und Manipukation. Es gibt zu wenig Abwehr solcher Inhalte. Das nutzen russische Akteure aus.
Soziale Netzwerke sind heute die Öffentlichkeit. Es wäre früher undenkbar gewesen, solche Propaganda in die Zeitungen oder ins Radio zu bekommen. Doch über Social Media zu manipulieren ist kinderleicht und extrem günstig. Das muss aufhören.
Doch die EU scheint es ernst zu meinen: Die Plattformbetreiber müssen nachbessern. Sie müssen schneller reagieren, entschlossener durchgreifen, der Forschung mehr Daten liefern, sonst drohen Bußgelder. Die EU hat zuletzt mehrmals gezeigt, etwa bei Apple und Tiktok, das sie dazu willens und in der Lage ist.
Allerdings kommt das alles sehr spät. Schon im Juni sind Europawahlen.
Der Druck aus der US-Politik nimmt zu, dass die großen Plattformen deutlich mehr für den Jugendschutz tun. Der Meta-Konzern hat jetzt Verbesserungen bei der Verbreitung von Nacktbildern angekündigt. Die sollen künftig standardmäßig geblurt sein.
Instagram hat sich in den letzten Jahren zu einer der beliebtesten Social-Media-Plattformen entwickelt, insbesondere bei Jugendlichen und jungen Erwachsenen. Doch die Plattform birgt auch einige Risiken, vor allem für die jüngeren Nutzer. Die Diskussion um angemessenen Jugendschutz auf Instagram hat daher stark an Fahrt aufgenommen.
Bislang unzureichender Jugendschutz
Eine der Hauptsorgen ist der potenzielle Zugang zu unangemessenen oder schädlichen Inhalten wie Gewalt, Mobbing, übermäßiger Sexualisierung oder der Förderung ungesunder Körperbilder. Jugendliche befinden sich in einer sensiblen Phase der Entwicklung und sind besonders anfällig für negative Einflüsse.
Die Probleme von Sextortion, Sexting und Cybergrooming sind bei Instagram besonders virulent.
Sextortion bezeichnet die Erpressung mit intimen Bildern oder Videos, oft nach dem ungewollten Teilen selbiger durch das Opfer.
Beim Sexting, dem Austausch anzüglicher Nachrichten und Fotos, besteht die Gefahr der Weiterverbreitung ohne Einwilligung.
Cybergrooming meint die gezielte Kontaktaufnahme durch Erwachsene zu Minderjährigen mit dem Ziel der sexuellen Ausbeutung.
Instagram ist hier ein bevorzugter Tummelplatz für Täter. All diese Praktiken können für Jugendliche auf der Plattform verheerende psychische und rechtliche Folgen haben. Präventionsmaßnahmen zur Sensibilisierung und Aufklärung der Gefahren sind daher unerlässlich – wurden aber bislang sträflich vernachlässigt.
Der Meta-Konzern, der Instagram betreibt, hat sich als Maßnahme – nicht zuletzt aufgrund zunehmenden Drucks aus der US-Politik – nun dazu entschlossen, einige zusätzliche Sicherheitsfunktionen für Minderjährige einzuführen und diese in einem offiziellen Blogpost angekündigt.
Geplant ist, dass beim Senden und Empfangen von Nacktbildern künftig Warnhinweise erscheinen sollen. Außerdem – und das ist viel wichtiger – will Instagram Nacktbilder in Direktnachrichten bei Minderjährigen automatisch durch einen Unschärfefilter („Blur“) unkenntlich machen.
Unschärfefilter macht Nacktbilder unkenntlich
Empfänger solcher „Nachrichten“ sollen künftig die Wahl haben, ob sie ein solches Bild sehen möchten oder nicht, erklärt die zuständige Abteilung des Meta-Konzerns in Frankreich, die im Konzern für den Kinderschutz zuständig ist. Demnach sollen junge Menschen mit den neuen Maßnahmen vor „ungewolltem und potenziell gefährlichem Kontakten“ bewahrt werden.
Die Maßnahmen gegen unerwünschte Nacktbilder sollen bereits vor dem Versenden greifen. Falls jemand mit aktivierten Nacktbildschutz plant, ein solches Foto zu versenden, erscheint bereits ein Warnhinweis. Erst nach Bestätigung wird das Bild tatsächlich verschickt. Beim Empfänger erscheint das Bild dann durch Filter unscharf. Auf diese Weise soll niemand ungewollt mit solchen Aufnahmen konfrontiert werden.
Eine Hürde, keine Blockade
Die Empfänger können das Bild nach ausdrücklicher Bestätigung anschauen oder den sendenden Account direkt und konsequent blockieren. Außerdem erscheint ein ebenfalls ein Warnhinweis, sollte jemand versuchen, ein empfangenes Nacktbild weiterzuleiten.
Das alles ist eine Hürde, keine Blockade.
Im Vordergrund der Maßnahmen stehe der bessere Schutz vor sogenannter „Sextortion“, erklärt Meta. Hier bringen die Täter die zumeist minderjährigen Opfer durch Vorspiegelung falscher Tatsachen und psychologische Tricks dazu, Nacktbilder oder sogar -videos von sich zu erstellen und ihnen über die Plattform zu senden. Ist das erst mal geschehen, drohen die Täter häufig mit der Veröffentlichung des Materials.
Kontrolle erfolgt auf den Geräten selbst
Da Instagram seit Mai 2023 die direkte Kommunikation auf der Plattform durch eine Ende-zu-Ende-Verschlüsselung absichert, kann Meta die Inhalte nicht sehen und auch nicht überprüfen. Deshalb erfolgt die Überprüfung auf den Geräten von Absender und Empfänger. Die nötige Analyse ob nackt oder nicht erfolgt auf den Geräten selbst durch eine KI-Funktion.
Die neue Schutzfunktion soll zunächst in mehreren Ländern in Mittel- und Lateinamerika getestet werden und in den kommenden Monaten weltweit zum Einsatz kommen.
Konzern steht unter Druck
Der Meta-Konzern steht unter Druck: Whistleblowerin Frances Haugen, die früher bei Facebook gearbeitet hat, wirft dem Konzern vor, bei weitem nicht genug für Jugendschutz getan zu haben.
Facebook priorisiere Profit über das Wohlergehen der Jugendlichen. Interne Studien hätten gezeigt, dass Instagram der mentalen Gesundheit von Teenagern schade, das Unternehmen habe aber trotzdem nicht ausreichend reagiert. Seitdem hat insbesondere die US-Politik den Druck auf den Konzern verstärkt.
Bereits im Januar hatte Meta einen verstärkten Jugendschutz auf Instagram angekündigt. Jugendliche müssen seitdem die Zustimmung der Eltern einholen, um ein Konto von privat auf öffentlich zu setzen.
In den USA werden Plattformen wie Instagram, TikTok oder Snapchat zur Verantwortung gezogen: Sie alle unternehmen zu wenig, um Kinder und Jugendliche auf den Plattformen zu schützen. Das muss sich ändern.