Mit den „Trusted Flaggern“ führt Deutschland staatlich zertifizierte Meldestellen ein, die illegale Inhalte im Internet aufspüren sollen. Doch die Regelung spaltet die Gesellschaft – zwischen notwendigem Schutz vor Hass und der Furcht vor digitaler Zensur.
Deutschland hat ein neues Instrument im Kampf gegen Hasskriminalität und illegale Inhalte im Internet: die sogenannten „Trusted Flagger“ oder „vertrauenswürdigen Hinweisgeber“. Diese staatlich zertifizierten Meldestellen sollen dabei helfen, problematische Inhalte auf Plattformen wie Facebook, X, TikTok oder YouTube schneller zu identifizieren und zu melden. Doch was sich zunächst harmlos anhört, löst heftige gesellschaftliche Debatten aus.

Was sind Trusted Flagger und wie funktionieren sie?
Trusted Flagger sind Organisationen mit besonderer Expertise, die von der Bundesnetzagentur als „vertrauenswürdige Hinweisgeber“ zertifiziert werden. Die Bundesnetzagentur hat heute den ersten Trusted Flagger, einen vertrauenswürdigen Hinweisgeber, gemäß dem Digital Services Act (DSA) zugelassen. Die Meldestelle REspect! der Stiftung zur Förderung der Jugend in Baden-Württemberg mit Sitz in Sersheim erhielt heute diese Zulassung.
Der erste und bislang wichtigste Trusted Flagger ist die Meldestelle „REspect!“ der Jugendstiftung Baden-Württemberg. REspect! konzentriert seine Arbeit als Trusted Flagger vor allem auf soziale Netzwerke und Video-Plattformen wie Facebook, X, Instagram, TikTok, YouTube und Telegram. Der Fokus liegt auf Identifizierung von Hassrede, terroristischer Propaganda und anderen gewalttätigen Inhalten, die in deutscher, englischer und arabischer Sprache verbreitet werden.
Mittlerweile sind weitere Organisationen hinzugekommen: Mit der Benennung von HateAid, dem Bundesverband Onlinehandel und dem Verbraucherzentrale Bundesverband hat die Bundesnetzagentur als zuständiger deutscher Digitale-Dienste-Koordinator den Kreis der „Vertrauenswürdigen Hinweisgeber“, wie sie auf Deutsch heißen, zum ersten Mal erweitert. Damit stehen mit der im vergangenen Jahr benannten Meldestelle Respect nunmehr vier Organisationen auf der Liste der Trusted Flagger bei der Bundesnetzagentur.
Wie der Meldemechanismus funktioniert
Das Verfahren ist mehrstufig und soll sicherstellen, dass nur tatsächlich problematische Inhalte gemeldet werden. Wenn Nutzer „REspect“ verdächtige Inhalte melden prüft die Meldestelle diese und gibt potenziell strafbare Inhalte an das Bundeskriminalamt (BKA) weiter. Das BKA und eine spezialisierte Staatsanwaltschaft prüfen dann ob ein Anfangsverdacht erfüllt wird. Nur wenn ein Verdacht besteht, meldet „REspect“ den Inhalt an die entsprechende Plattform, die dann über das weitere Vorgehen entscheidet.
Der entscheidende Vorteil für Trusted Flagger: Plattformen sind gesetzlich verpflichtet, Meldungen von Trusted Flaggern prioritär zu behandeln und unverzüglich Maßnahmen wie beispielsweise die Löschung der Inhalte zu ergreifen. Das bedeutet konkret, dass ihre Meldungen bevorzugt abgearbeitet werden müssen – ein mächtiges Instrument im digitalen Zeitalter.

Der Digital Services Act als rechtliche Grundlage
Die Trusted Flagger sind kein deutsches Alleingang-Projekt, sondern entstehen aus dem Digital Services Act (DSA) der Europäischen Union. Dieser trat im Februar 2024 vollständig in Kraft und soll einen sichereren digitalen Raum schaffen. Der DSC ist die zentrale Koordinierungsstelle für die Durchsetzung des DSA in Deutschland. Er kontrolliert Dienste-Anbieter und Online-Plattformen auf die Einhaltung ihrer Verpflichtungen, ist zentrale Beschwerdestelle für Online-Nutzer bei Verstößen gegen den DSA und koordiniert die Zusammenarbeit der zuständigen nationalen und europäischen Behörden.
In Deutschland wird der DSA durch das Digitale-Dienste-Gesetz (DDG) umgesetzt, das im Mai 2024 in Kraft trat. Die Bundesnetzagentur fungiert dabei als nationaler „Digital Services Coordinator“ und ist für die Zertifizierung der Trusted Flagger zuständig.
Welche Organisationen werden Trusted Flagger?
Um als Trusted Flagger zugelassen zu werden, müssen Organisationen strenge Kriterien erfüllen: Den Status als Trusted Flagger erhalten Organisationen, die: besondere Sachkenntnisse und Kompetenzen in der Erkennung, Identifizierung und Meldung rechtswidriger Inhalte · ihre Unabhängigkeit von jeglichen Online-Plattformen nachweisen können.
Die vier bisher in Deutschland zugelassenen Trusted Flagger haben unterschiedliche Schwerpunkte:
REspect! konzentriert sich auf Hassrede, terroristische Propaganda und gewaltverherrlichende Inhalte in mehreren Sprachen.
HateAid spezialisiert sich auf menschenfeindliche Inhalte und unterstützt Betroffene digitaler Gewalt. „Ob Meta, X oder Tiktok: Social-Media-Plattformen lassen zu, dass auf ihnen strafbare Inhalte wie Morddrohungen oder antisemitische Volksverhetzung von radikalen Kräften verbreitet werden“, sieht HateAid-Geschäftsführerin Josephine Ballon die Benennung der gemeinnützigen GmbH als Trusted Flagger als einen Schritt hin zu mehr Verantwortlichkeit.
Der Bundesverband Onlinehandel fokussiert sich auf illegale Produkte und Betrug im E-Commerce, während die Verbraucherzentrale Bundesverband Verbraucherschutz-Aspekte abdeckt.
Die Kontroverse: Schutz oder Zensur?
Die Einführung der Trusted Flagger hat eine heftige gesellschaftliche Debatte ausgelöst. Kritiker befürchten den Einstieg in ein staatliches Zensursystem. Stephan Brandner von der AfD spricht von „Netzdenunzianten“, FDP-Politiker Wolfgang Kubicki in der „Bild“ von einer „grünen Zensuranstalt“.
Besonders scharf kritisierte der Verfassungsrechtler Josef Franz Lindner das System: „Wenn man später einmal den Niedergang der Meinungsfreiheit in Deutschland und den Einstieg in den Zensurstaat rekonstruieren will, wird dem ‚Leitfaden‘ zu den Trusted Flaggers die Rolle eines Schlüsseldokuments zukommen“, mahnte er auf X.
Das Problem der unklaren Begriffe
Ein Hauptkritikpunkt liegt in der ursprünglich unpräzisen Kommunikation der Bundesnetzagentur. Ausschlaggebend für die Zensur-Vorwürfe war eine ungenaue Pressemitteilung der Bundesnetzagentur, die inzwischen überarbeitet wurde. Darin hieß es: „Plattformen sind verpflichtet, auf Meldungen von „Trusted Flaggern“ sofort zu reagieren. Illegale Inhalte, Hass und Fake News können sehr schnell und ohne bürokratische Hürde entfernt werden.“ Hass und die Verbreitung von Fake News sind aber nicht automatisch Straftaten.
Nach der Kritik korrigierte die Bundesnetzagentur ihre Formulierung und spricht nun von „illegalen Inhalten, illegalem Hass und illegalen Fake News“ – ein wichtiger Unterschied, der zeigt, wie sensibel die Grenze zwischen legitimer Meinungsäußerung und strafbaren Inhalten ist.
Warum das System umstritten ist
Die fundamentale Kritik richtet sich gegen mehrere Aspekte des Systems:
Overblocking-Gefahr: Plattformen könnten aus Angst vor Strafen mehr Inhalte löschen als nötig. Die großen Plattformen und Suchmaschinen werden zum sogenannten Overblocking neigen. Schon die verwendeten Generalklauseln setzen ihnen keine inhaltlichen Grenzen beim Umgang mit Eintragungen. Mit Strafen von bis zu 6 Prozent des weltweiten Jahresumsatzes sind die Anreize für vorsorgliche Löschungen erheblich.
Begriffsunschärfe: Was genau „Hassrede“ oder „schädliche Desinformation“ ist, bleibt oft Interpretationssache. In dem Leitfaden ist konkret aufgezählt, was als Verstoß gilt. Allerdings ist bei jeder Kategorie wie Verletzungen des Urheberrechts oder unerlaubter Rede die Anmerkung „Andere“. Das läßt den Meldestellen also Spielraum für ihr eigenes Ermessen.
Demokratische Legitimation: Kritiker fragen, wer entscheidet, welche Organisationen diese Macht erhalten und nach welchen Kriterien sie arbeiten.

Die praktische Wirksamkeit bleibt fraglich
Interessant ist die Frage, ob Trusted Flagger überhaupt einen messbaren Unterschied machen. Facebook gab in einem Bericht für das 2. Halbjahr 2021 an, dass insgesamt 17.730 Inhalte entfernt wurden, die nach dem NetzDG gemeldet wurden. Allerdings sind hiervon 16.648 Fälle erfasst, die gleichwohl gegen die vorrangig geprüften Gemeinschaftsstandards von Facebook verstießen und aus diesem Grunde entfernt wurden. Es verbleiben mithin lediglich 1082 Inhalte für diesen Zeitraum, die ausschließlich aufgrund einer NetzDG-Meldung entfernt wurden.
Zum Vergleich: Im selben Zeitraum entfernte Facebook 39,7 Millionen Inhalte wegen „Hassrede“-Verstößen gegen die eigenen Nutzungsbedingungen. Das zeigt: Plattformen löschen bereits massiv Inhalte nach eigenen Regeln – oft weitreichender als das deutsche Strafrecht es verlangen würde.
Der gesellschaftliche Kontext: Warum jetzt?
Die Einführung der Trusted Flagger geschieht nicht im luftleeren Raum. Nach dem Hamas-Angriff auf Israel am 7. Oktober 2023 explodierten antisemitische Inhalte im Netz förmlich. Nach den Angriffen der Hamas auf die israelische Zivilbevölkerung war von seiner Existenz noch wenig zu spüren. Auf den Plattformen wurde beispielloser Hass verbreitet – die Anzahl antisemitischer Kommentare pro Video stieg nach dem 7. Oktober auf Youtube beispielsweise um 242 Prozent, so zeigt eine Studie des „Institute for strategic dialogue“.
Gleichzeitig wächst die Sorge vor Desinformation im Vorfeld wichtiger Wahlen. Die EU-Parlamentswahlen 2024 und die Bundestagswahl 2025 verstärken den politischen Druck, gegen Manipulation und Hetze vorzugehen.
Internationale Perspektive und Zukunft
Deutschland ist nicht allein: In der gesamten EU sind damit nunmehr 34 Trusted Flagger von den zuständigen Aufsichtsbehörden qualifiziert. Jedes EU-Land muss einen Digital Services Coordinator einrichten und kann Trusted Flagger zertifizieren.
Die Entwicklung zeigt einen grundlegenden Wandel im Umgang mit digitalen Plattformen: Weg von der Selbstregulierung, hin zu staatlicher Aufsicht und Kontrolle. Ob dies dem demokratischen Diskurs hilft oder schadet, wird sich in den kommenden Jahren zeigen.
Fazit: Balanceakt zwischen Schutz und Freiheit
Die Trusted Flagger stehen exemplarisch für das zentrale Dilemma unserer digitalen Zeit: Wie lassen sich Grundrechte wie Meinungsfreiheit mit dem Schutz vor Hass, Hetze und Desinformation vereinbaren?
Befürworter argumentieren, dass angesichts der massiven Verbreitung von Hassrede und Extremismus im Netz professionelle Meldestellen notwendig sind. Mit dem DSA würden Plattformen nun erstmals gesetzliche Regeln vorgeschrieben, die anders als die privatrechtlichen Nutzungsvereinbarungen demokratisch legitimiert seien. „Es ist der Versuch, unsere Demokratie, die EU-Mitgliedstaaten und jeden einzelnen Nutzenden gegen die Willkür der Tech-Plattformen zu verteidigen,“ sagt Ballon.
Kritiker warnen hingegen vor dem schleichenden Abbau der Meinungsfreiheit durch staatliche Kontrollmechanismen. Die Gefahr des „betreuten Denkens“ und der vorauseilenden Selbstzensur ist real.
Entscheidend wird sein, wie transparent und demokratisch kontrolliert diese neuen Machtstrukturen arbeiten. Entscheidend wird sein, wie das System in der Praxis umgesetzt wird. Eine kontinuierliche Überprüfung und gegebenenfalls Anpassung sind unerlässlich, um Missbrauch zu verhindern und die Grundrechte aller Internetnutzer zu schützen.
Die kommenden Jahre werden zeigen, ob Deutschland und Europa den schwierigen Balanceakt zwischen digitalem Schutz und demokratischer Freiheit meistern können – oder ob die Trusted Flagger zum Symbol für den Verlust der digitalen Meinungsfreiheit werden.
Die Debatte ist noch lange nicht beendet. Sie berührt grundlegende Fragen unserer Demokratie im digitalen Zeitalter.