Meta AI Training: Warum das OLG Köln grünes Licht gab

von | 24.06.2025 | KI

Habt Ihr mitbekommen, oder? Das Oberlandesgericht (OLG) Köln hat dem Meta-Konzern vor einigen Tagen Recht gegeben: Der Konzern darf öffentliche Nutzerdaten (die User auf Instagram oder Facebook für die Allgemeinheit öffentlich gepostet haben) für das Training seiner KI-Modelle (Meta AI und Llama) verwenden.

Das Urteil sorgt erwartbar für Diskussionen – und wirft wichtige Fragen auf. Warum haben die Richter so entschieden? Und was bedeutet das für uns Nutzer – auch für die Zukunf?

Die Angst vor der Datensammelei

Viele Menschen sind verständlicherweise erst mal beunruhigt, wenn sie hören, dass Meta ihre Posts, Kommentare und öffentlichen Inhalte für KI-Training nutzen will. Denn Meta ist bislang nicht dadurch aufgefallen, besonders zurückhaltend mit dem Einsammeln und Auswerten von Daten zu sein.

Der erste Gedanke: „Die wollen mich auskundschaften!“

Diese Sorge ist verständlich. Schließlich hat Meta nicht gerade den besten Ruf, wenn es um den Umgang mit Nutzerdaten geht.

Aber hier lohnt sich ein differenzierter Blick – er ist sogar wichtig, alles andere wäre ungerecht und würde der Sache nicht gerecht. Denn das Gericht hat genau geprüft, was Meta wirklich macht – und kam zu einem anderen Schluss als viele Kritiker.

Meta hat die neuen Datenschutzrichtlinien in einer E-Mail angekündigt
Meta hat die neuen Datenschutzrichtlinien in einer E-Mail angekündigt

Was das Gericht überzeugt hat

Die Kölner Richter sahen drei entscheidende Punkte, die für Meta sprechen:

Erstens: Es gibt ein berechtigtes Interesse. Meta trainiert seine KI nicht zum Spaß, und auch nicht dazu, eigene Datenberge größer zu machen (dafür wäre diese Maßnahme auch nicht zweckmäßig), sondern um bessere Dienste anzubieten. In diesem Fall vor allem: KI-Modelle, die gut Deutsch sprechen und die deutsche Kultur „verstehen“ und kennen. Das Gericht sah das als legitimes Geschäftsinteresse an – und stellte fest, dass dieses Interesse konkret und gegenwärtig ist, nicht nur spekulativ.

Zweitens: Die Daten verschwinden in der Masse. Hier wird es technisch interessant. Das Gericht zitierte den baden-württembergischen Datenschutzbeauftragten: Bei den riesigen Datenmengen, die für KI-Training verwendet werden, ist die Wahrscheinlichkeit sehr gering (nicht Null, aber doch sehr gering), dass einzelne Personen identifiziert werden können – und dieselben Ergebnisse ließen sich dann auch über Suchmaschinen erzielen. Die Informationen gehen sozusagen in der Datenmasse unter.

Drittens: Es geht um Muster, nicht um Profile. KI-Modelle lernen allgemeine Sprachmuster und Wahrscheinlichkeiten – sie erstellen keine Persönlichkeitsprofile einzelner Nutzer. Das ist ein wichtiger Unterschied zu anderen Formen der Datenverarbeitung.

Meta will seine KI-Modelle mit Texten und Bildern aus den sozialen Plattformen trainieren
Meta will seine KI-Modelle mit Texten und Bildern aus den sozialen Plattformen trainieren

Die Opt-out-Möglichkeit funktioniert

Ein zentraler Kritikpunkt war, dass Meta die Datennutzung nur schwer verhinderbar macht. In der Tat sind die Möglichkeiten zum Widerspruch bei Instagram und Facebook unter unterschiedlichen Optionen versteckt.

Doch das Gericht sah das anders. Die Richter stellten fest, dass der Widerspruch „von einem durchschnittlichen Nutzer leicht ausgeübt werden“ kann. Auch die Frist von etwa sechs Wochen für die Entscheidung sei ausreichend lang.

Das mag nicht jedem gefallen, aber rechtlich ist es offensichtlich in Ordnung. Wer nicht möchte, dass seine öffentlichen Daten für KI-Training verwendet werden, kann das verhindern – durch ein Optout. Ein Optin zu verlangen, wie einige das tun, ist realitäsfern.

Warum Artikel 9 DSGVO nicht greift

Besonders spannend ist die Frage der besonderen Kategorien personenbezogener Daten nach Artikel 9 DSGVO. Dabei geht es um sensible Informationen wie Gesundheitsdaten oder politische Ansichten. Zweifellos sehr sensible Daten und Informationen, von denen man nicht möchte, dass sie in „falsche“ Hände geraten.

Kritiker argumentierten, dass beim Sammeln öffentlicher Posts automatisch auch solche Daten erfasst werden könnten.

Das Gericht widersprach. Es verwies auf die „zahlreichen getroffenen Schutzmaßnahmen“ von Meta (etwa: Pseudonymisierung) und betonte, dass das Training darauf abzielt, „allgemeine Muster für Wahrscheinlichkeitsberechnungen zu erstellen und nicht zur Profilerstellung einzelner Personen“.

Der größere Kontext: Europa und KI

Interessant ist auch, wie das Gericht die EU-KI-Verordnung in seine Überlegungen einbezogen gar. Die Richter argumentierten, dass eine zu strenge Auslegung der DSGVO das Ziel der EU konterkarieren würde, Europa zu einem führenden Standort für KI-Entwicklung zu machen.

Was zweifellos stimmt. Und hier müssen wir uns alle an die eigene Nase packen: Wir Deutschen nutzen am intensivsten in Europa Chatbots aller Anbieter, wollen aber nicht, dass sie mit Inhalten trainiert werden, die wir selbst möglicherweise erstellt haben? Das ist ein Widerspruch.

Wenn europäische Unternehmen keine EU-Daten für KI-Training nutzen dürften, wären sie gegenüber Konkurrenten aus anderen Regionen massiv benachteiligt. Das kann nicht im Sinne der europäischen Gesetzgeber sein und erst recht nicht im Sinne der EU im Ganzen.

Natürlich braucht es Regeln und Grenzen – aber keine ideologischen, sondern gut begründete.

Berechtigte Kritik bleibt bestehen

Trotz des Urteils sollten wir Meta nicht blind vertrauen. Das Unternehmen hat in der Vergangenheit wiederholt gezeigt, dass es Datenschutz und Transparenz nicht immer ernst genug nimmt. Die Art, wie Meta seine Datennutzung kommuniziert, ist oft intransparent und nutzerunfreundlich.

Auch die Tatsache, dass man erst aktiv widersprechen muss (Opt-out statt Opt-in), kritisieren viele. Sie argumentieren: Ein respektvollerer Umgang mit Nutzerdaten würde bedeuten, dass man explizit zustimmen muss, bevor die Daten verwendet werden. Nur: Wer würde sich die Mühe machen, vor allem ohne Gegenleistung?

Warum gute KI Training braucht

Dennoch müssen wir anerkennen: Gute KI braucht Daten. Viele Daten. Wer möchte, dass Übersetzungsdienste, Sprachassistenten oder andere KI-Anwendungen funktionieren, muss akzeptieren, dass sie mit realen Daten trainiert werden müssen.

Die Alternative wären KI-Systeme, die nur mit künstlich erzeugten oder stark eingeschränkten Datensätzen arbeiten – und damit mit einer unzureichenden Qualität antworten und Texte liefern. Ja, das würde ihre Qualität und Nützlichkeit erheblich beeinträchtigen.

Wichtig: Differenzierung ist gefragt

Das Urteil des OLG Köln zeigt: Pauschale Verbote helfen nicht weiter. Stattdessen braucht es eine differenzierte Betrachtung, eine Abwägung im Einzelfall.

Meta mag viele fragwürdige Praktiken haben, aber das KI-Training mit öffentlichen Daten ist – unter den gegebenen Bedingungen – rechtlich in Ordnung.

Als Nutzer sollten wir wachsam bleiben und unsere Rechte kennen. Wer nicht möchte, dass seine öffentlichen Daten für KI-Training verwendet werden, kann widersprechen. Gleichzeitig sollten wir realistisch bleiben: Gute KI braucht Daten, und völlig anonyme Datenverarbeitung ist bei der Masse an Informationen durchaus möglich.

Die Diskussion um KI und Datenschutz ist noch lange nicht zu Ende. Aber dieses Urteil schafft wichtige Rechtssicherheit – und zeigt, dass auch in sensiblen Bereichen pragmatische Lösungen möglich sind.