Ein Ehepaar hatte geklagt, weil sich im Web Verunglimpfungen über sie befunden haben. Die Suchmaschine Google sollte die nicht mehr anzeigen. Der BGH hatte 2018 klargestellt: Google muss nicht vorab prüfen, ob Webseiten gegen geltendes Recht verstoßen. Es reicht, wenn der Suchdienst auf Hinweise reagiert – ein Grundsatz, der heute relevanter denn je ist.
Natürlich weiß Google nur zu gut, was auf einer Webseite thematisiert wird. Bevor eine Webseite im sogenannten Index der Suchmaschine landet, wird der Inhalt überprüft. Schon allein, um das Thema auf der Seite erfassen zu können – anderenfalls könnte die Suchmaschine keine Treffer präsentieren. Aber ist Google verantwortlich für die verlinkten Inhalte? Ein klares Nein vom Bundesgerichtshof (BGH) dazu, der bereits 2018 entschieden hat, dass Google nicht vorab auch noch die Rechtmäßigkeit der Inhalte prüfen müsste.

PhotoMIX-Company / Pixabay
Auf Hinweis zu reagieren reicht aus – heute wichtiger denn je
Erst wenn konkrete Hinweise vorliegen, müsse Google aktiv werden, sagen die Richter. Das sind in etwa dieselben Spielregeln, die auch Website-Betreibern vom BGH auferlegt wurden. Diese Rechtsprechung hat sich bewährt und ist heute, in Zeiten von KI-generierten Inhalten und explosionsartig wachsenden Datenmengen, relevanter denn je.
Wenn Suchmaschinen wie Google vorab alle Inhalte auf ihre Rechtmäßigkeit prüfen müssten, würde das die Aktualität der Suchergebnisse massiv behindern und zu einer problematischen Vorabzensur führen. Bei täglich Milliarden neuer Webseiten und Inhalten wäre eine Vorabprüfung praktisch unmöglich.
Google unternimmt ohnehin schon einiges, um Übeltätern auf die Schliche zu kommen. Das Unternehmen setzt dabei zunehmend auf KI-basierte Systeme: Verbreiten Webseiten zum Beispiel Malware, also schadhaften Programmcode, werden die Betreiber automatisch benachrichtigt. Die Inhalte der Seite werden erst schlechter gerankt und dann gar nicht mehr gelistet.
KI macht Moderation nicht einfacher
Hier zeigt sich auch 2026 das grundlegende Problem: Während Malware relativ eindeutig identifizierbar ist, bleiben Grenzfälle bei Persönlichkeitsrechten komplex. Ob jemand erlaubterweise oder ungerechtfertigt über eine Person schreibt, ob es sich um Tatsachen, Meinungen oder Verleumdungen handelt – das kann auch die beste KI nicht zuverlässig ermitteln.
Selbst moderne Large Language Models wie GPT-5 oder Googles Gemini Ultra können den Kontext und die rechtlichen Nuancen nicht vollständig erfassen. Kulturelle Unterschiede, Ironie, Satire oder berechtigte Kritik von Verleumdung zu unterscheiden, überfordert auch 2026 noch jeden Algorithmus.
Aktuelle Entwicklungen verstärken das Problem
Die Herausforderungen haben sich seit 2018 sogar verschärft. KI-generierte Inhalte fluten das Netz, Deepfakes werden immer raffinierter, und Social Media Plattformen kämpfen täglich mit Millionen fragwürdiger Posts. Gleichzeitig entstehen durch das EU-Recht neue Verpflichtungen: Der Digital Services Act (DSA) verpflichtet große Plattformen zu schnelleren Reaktionen auf illegale Inhalte.
Trotzdem bleibt das Grundprinzip richtig: Notice-and-Takedown statt Vorabzensur. Google hat seine Meldesysteme inzwischen deutlich ausgebaut. Über das „Legal Removal Request“-Tool können Betroffene problematische Suchergebnisse melden. Die Bearbeitungszeiten haben sich verkürzt, und die Transparenz wurde erhöht.
Das Notice-and-Takedown-Verfahren in der Praxis
So funktioniert es heute: Wer sich durch Suchergebnisse in seinen Persönlichkeitsrechten verletzt sieht, kann eine Beschwerde einreichen. Google prüft dann binnen weniger Tage, ob die Beschwerde berechtigt ist. Bei eindeutigen Fällen – etwa bei Revenge Porn oder offensichtlichen Verleumdungen – erfolgt die Entfernung oft automatisch.
Bei komplexeren Fällen greift ein mehrstufiges Verfahren: Erst interne Prüfung, dann gegebenenfalls externe Rechtsberatung. Im Zweifel wird der Fall an die Gerichte weitergeleitet. Dieses System hat sich bewährt und schützt sowohl vor Zensur als auch vor Rechtsverletzungen.
Ein richtiges Urteil – heute bestätigt
Der BGH hat 2018 vollkommen richtig entschieden, und die Entwicklungen der letzten Jahre bestätigen das. Jedes andere Urteil wäre absurd gewesen, weil nicht durchsetzbar und darüber hinaus eine Art Vorabzensur, die mehr Schaden als Nutzen brächte.
Es reicht, wenn Suchmaschinen verpflichtet sind, erkennbar rechtswidrige Inhalte auf begründeten Hinweis zu entfernen – und das zeitnah. Im Zweifel muss ein Richter entscheiden, was verschwinden muss und was bleiben darf. So funktioniert ein Rechtsstaat auch im digitalen Zeitalter.
Zuletzt aktualisiert am 29.03.2026

