Wir müssen reden: Warum Meta ausnahmsweise mal nicht der Bösewicht ist

von | 21.05.2025 | KI

Meta nutzt öffentliche Facebook- und Instagram-Posts zum Training seiner KI – und erntet Kritik. Doch ein genauer Blick zeigt: Das ist nicht nur legitim, sondern auch in unserem Interesse. Denn: Wir brauchen KI, die uns versteht. Und Meta ist transparenter als viele andere.

Es ist eine Nachricht, die für Aufregung sorgt: Meta, also der Konzern hinter Facebook, Instagram und WhatsApp, kündigt an, seine KI-Modelle künftig mit öffentlich verfügbaren Inhalten von Facebook und Instagram trainieren zu wollen – auch in Europa. Darunter fallen auch Daten von uns Deutschen. Wer auf diesen Plattformen Inhalte öffentlich postet, muss damit rechnen, dass diese künftig in Meta AI oder im Sprachmodell Llama landen.

Klingt empörend? Ist es aber nicht unbedingt. Im Gegenteil. Es ist vielleicht an der Zeit, etwas differenzierter über das Thema KI-Training und Datennutzung zu sprechen – gerade in Europa.

Meta AI in WhatsApp und Instagram: Zu erkennen an dem blauen Kreis
Meta AI in WhatsApp und Instagram: Zu erkennen an dem blauen Kreis

Nicht Werbung, sondern Sprachkompetenz

Was Meta vorhat, ist kein Datenklau. Die Inhalte, die zum Training verwendet werden sollen, sind öffentlich sichtbar. Jeder kann sie lesen, durchsuchen, speichern. Meta will diese öffentlich geteilten Inhalte nicht verwenden, um personalisierte Werbung zu verbessern, sondern um seine KI-Modelle zu trainieren. Das ist ein bedeutender Unterschied.

Denn wer eine leistungsfähige KI will – eine, die in natürlichem Deutsch antwortet, die unsere kulturellen Referenzen versteht, die nicht permanent in anglisierten Floskeln oder am deutschen Sprachgefühl vorbeikommuniziert – der muss akzeptieren, dass genau diese Daten nötig sind.

Alle trainieren – nur nicht so transparent

Tatsache ist: Alle trainieren. OpenAI (ChatGPT), Google (Gemini), Anthropic (Claude), xAI (Grok) – sie alle füttern ihre KI-Modelle mit Texten, Inhalten, Postings. Nur spricht kaum jemand darüber, mit welchen Inhalten eigentlich.

Meta ist in diesem Fall ungewöhnlich offen. Der Konzern benennt konkret, was genutzt wird: öffentliche Posts auf Facebook und Instagram. Zudem wird ein Opt-out angeboten, das Nutzerinnen und Nutzer nutzen können.

Das ist, Hand aufs Herz, mehr Transparenz und Kontrolle, als die meisten anderen Anbieter bieten. OpenAI? Lässt sich kaum in die Karten schauen. Grok, der Chatbot von Elon Musk? Der ist laut übereinstimmenden Berichten mit Milliarden Tweets auf X trainiert worden – ob die User das wollten, fragt dort niemand.

Llama ist ein kostenlos und für jeden verfügbares KI-Modell von Meta
Llama ist ein kostenlos und für jeden verfügbares KI-Modell von Meta

Kritik an Meta? Ja, aber bitte differenziert

Natürlich ist Meta kein karitativer Verein. Klar geht es auch ums Geschäft. Aber: Meta stellt sein Sprachmodell Llama der Öffentlichkeit zur Verfügung. Kostenlos. Offen. Als Open Source.

Das ist keine Selbstverständlichkeit. Die Modelle von OpenAI, Microsoft oder Google sind komplett proprietär. Wer damit arbeiten will, muss zahlen – und hat keinen Einblick in das, was unter der Haube passiert. Wer KI wirklich verstehen, verbessern oder in eigene Anwendungen einbauen will, ist auf offene Modelle wie Llama (Meta) oder Mistral (Frankreich) angewiesen.

Einmal Opt-out, bitte

Und ja, es gibt sogar eine Möglichkeit, nicht Teil dieses Trainings zu sein. Meta bietet eine Opt-out-Lösung an – auch für Nutzer aus Europa. Wer nicht möchte, dass eigene öffentlich gepostete Inhalte in das Training einfließen, kann widersprechen.

Manche sagen: Ein Opt-out reicht nicht. Es müsste ein Opt-in sein. Doch wenn es um öffentliche Daten geht – also Inhalte, die jeder sehen kann –, ist diese Forderung schlicht unrealistisch.

Konstruktive Debatte dringend nötig

Was wir brauchen, ist eine ernsthafte und sachliche Debatte darüber, mit welchen Inhalten KIs trainiert werden – und wie dabei Urheberrechte und Persönlichkeitsrechte gewahrt bleiben.

Die EU wäre gut beraten, hier einheitliche Standards zu entwickeln: etwa technische Tags (wie „AI-No“), mit denen Publisher und Creator Inhalte explizit vom KI-Training ausschließen können. Oder Lizenzierungsmodelle, bei denen Urheber an der Nutzung beteiligt werden.

Doch das alles ersetzt nicht den gesunden Menschenverstand: Wer öffentlich postet, muss damit rechnen, dass es gelesen, verarbeitet – oder eben auch zum Training genutzt wird.

Fazit: Mehr Offenheit, mehr Chancen

Anstatt reflexhaft auf Meta einzuschlagen, sollten wir anerkennen: Der Konzern macht hier etwas richtig. Er ist transparent, bietet eine Abmeldung und stellt gleichzeitig ein leistungsfähiges Modell wie Llama 3 der Öffentlichkeit zur Verfügung – kostenlos, quelloffen, nutzbar auch in Europa.

Für eine gesunde digitale Zukunft brauchen wir mehr solcher Modelle – nicht weniger. Und dafür ist es nötig, dass diese Modelle mit echten Sprachdaten gefüttert werden – auch mit europäischen.

Denn eines ist klar: KI wird bleiben. Die Frage ist nur, ob sie mit oder ohne uns lernt.