Ein kalifornisches Gericht erlaubt KI-Unternehmen erstmals offiziell, Bücher für das Training ihrer Modelle zu nutzen – doch die Beschaffung über Piraterieseiten bleibt illegal. Das Urteil könnte die Zukunft der Künstlichen Intelligenz prägen.
Die Künstliche Intelligenz steht vor ihrer nächsten juristischen Bewährungsprobe. Ein US-Bundesrichter in San Francisco entschied am Montag, dass Anthropics Verwendung von Büchern ohne Erlaubnis zum Training seines KI-Systems legal unter dem US-Urheberrecht war. Doch das Urteil enthält einen entscheidenden Haken, der noch für ordentlich Wirbel sorgen dürfte.
Fair Use siegt – mit Einschränkungen
Richter William Alsup sprach Anthropic in einem der wichtigsten Copyright-Verfahren der KI-Ära frei. Das Training mit urheberrechtlich geschützten Büchern qualifizierte sich als „Fair Use“ unter dem US-Urheberrecht, weil es „außerordentlich transformativ“ war. Der Richter zog einen bemerkenswerten Vergleich: „Wie jeder Leser, der anstrebt, Schriftsteller zu werden, trainierten Anthropics große Sprachmodelle auf Werken nicht, um voranzupreschen und sie zu replizieren oder zu ersetzen – sondern um eine harte Kurve zu nehmen und etwas anderes zu schaffen“.

Diese Entscheidung markiert einen Durchbruch für die gesamte KI-Branche. Unternehmen wie OpenAI, Meta und Google argumentieren seit Jahren, dass ihre Systeme Inhalte transformativ nutzen und somit unter den Schutz des Fair-Use-Prinzips fallen. Anthropic investierte Millionen in den Kauf physischer Bücher, scannte diese ein und vernichtete anschließend die Originale – ein Vorgehen, das das Gericht nun als rechtmäßig bewertete.
Der Haken: Millionen gestohlener Bücher
Doch Anthropic kommt nicht ungeschoren davon. Das Gericht ordnete jedoch auch an, dass Anthropic sich vor Gericht wegen des Vorwurfs verantworten muss, dass es wissentlich Kopien von über 7 Millionen Büchern von Piraterie-Websites heruntergeladen hat. Diese illegale Beschaffung fällt definitiv nicht unter Fair Use.
Der Richter machte unmissverständlich klar: „Dass Anthropic später ein Exemplar eines Buches kaufte, das es zuvor aus dem Internet gestohlen hatte, wird es nicht von der Haftung für den Diebstahl befreien, könnte aber das Ausmaß der gesetzlichen Schäden beeinflussen“. Bei möglichen Strafen von bis zu 150.000 Dollar pro Werk drohen Anthropic Milliardensummen.
Autoren sehen sich bedroht
Die Kläger – die Autoren Andrea Bartz, Charles Graeber und Kirk Wallace Johnson – warfen Anthropic vor, ihre Werke ohne Zustimmung für das Training des KI-Chatbots Claude verwendet zu haben. Sie bezeichneten dies als „großangelegten Diebstahl“ und argumentierten, dass KI-Unternehmen ihr Geschäftsmodell auf gestohlenem geistigen Eigentum aufbauen.
Die Authors Guild, eine wichtige Interessenvertretung für Schriftsteller, zeigte sich trotz der Niederlage kämpferisch. CEO Mary Rasenberger erklärte gegenüber NPR: „Die Auswirkungen dieser Entscheidung für Buchautoren sind tatsächlich ziemlich gut. Der Richter verstand die unverschämte Piraterie. Und das bringt gesetzliche Schadensersatzzahlungen für vorsätzliche Urheberrechtsverletzungen mit sich, die ziemlich hoch sind pro Buch.“

Präzedenzfall mit globalen Auswirkungen
Das Urteil schafft erstmals rechtliche Klarheit in einer der umstrittensten Fragen des KI-Zeitalters. Dutzende ähnlicher Klagen gegen Tech-Giganten wie OpenAI, Meta und Microsoft warten auf ihre Verhandlung. Während das Urteil keine Garantie dafür ist, wie ähnliche Fälle ablaufen werden, legt es den Grundstein für einen Präzedenzfall, der Tech-Unternehmen gegenüber Kreativen bevorzugen würde.
Besonders brisant: Meta lud laut Gerichtsdokumenten über 80 Terabyte urheberrechtlich geschützter Bücher via BitTorrent herunter. Auch andere KI-Unternehmen könnten sich bald ähnlichen Vorwürfen stellen müssen.
Das Spiel mit dem transformativen Charakter
Die Entscheidung stützt sich auf das Konzept der „transformativen Nutzung“ – ein Eckpfeiler des Fair-Use-Prinzips. Alsup sagte, dass Anthropics Nutzung der Bücher zum Training von Claude „außerordentlich transformativ“ war und Fair Use unter Section 107 des Urheberrechtsgesetzes darstellte.
Anthropic argumentierte vor Gericht, dass das US-Urheberrecht solche Nutzung „nicht nur erlaubt, sondern ermutigt“, weil sie menschliche Kreativität fördert. Das Unternehmen erklärte, es habe die Bücher kopiert, um „die Schriften der Kläger zu studieren, nicht urheberrechtsfähige Informationen daraus zu extrahieren und das Gelernte zu nutzen, um revolutionäre Technologie zu schaffen.“

Schutzmaßnahmen als Trumpfkarte
Ein wichtiger Faktor in der Entscheidung waren die von Anthropic implementierten „Leitplanken“. Alsup bemerkte in seinem Urteil auch, dass Anthropic „Schutzmaßnahmen“ in Claude eingebaut hatte, die verhindern sollten, dass es Ausgaben produziert, die die Bücher, auf denen es trainiert wurde, direkt plagiieren.
Diese technischen Vorkehrungen unterscheiden moderne KI-Systeme von simplen Kopiermaschinen. Sie analysieren und lernen aus Texten, ohne diese wortwörtlich zu reproduzieren – ein Argument, das in zukünftigen Verfahren entscheidend werden könnte.
Blick in die Zukunft
Das Urteil markiert einen Wendepunkt, ist aber längst nicht das letzte Wort. Im Dezember 2025 entscheidet das Gericht über mögliche Schadensersatzzahlungen für die illegale Buchbeschaffung. Experten rechnen mit Berufungen und jahrelangen Rechtsstreitigkeiten.
Für die KI-Branche bedeutet das Urteil sowohl Befreiung als auch Warnung. Training mit urheberrechtlich geschützten Inhalten kann legal sein – aber nur, wenn die Beschaffung sauber abläuft. Die Zeiten, in denen sich Tech-Konzerne ungestraft bei Piraterieseiten bedienten, sind vorbei.
Was bedeutet das für uns?
Das Anthropic-Urteil verändert die Spielregeln fundamental. KI-Systeme dürfen aus der gesamten verfügbaren Literatur lernen – genau wie Menschen auch. Doch wer dabei zu unlauteren Mitteln greift, muss mit empfindlichen Strafen rechnen.
Für Autoren und Kreative bedeutet dies einen Balanceakt zwischen Innovation und Schutz ihrer Werke. Während sie das Training selbst nicht verhindern können, haben sie mächtige Waffen gegen illegale Beschaffungsmethoden.
Die Debatte ist längst nicht beendet. Sie zeigt exemplarisch, wie schwierig es ist, jahrhundertealte Rechtsprinzipien auf revolutionäre Technologien anzuwenden. Eines steht fest: KI darf lernen – aber sie muss dabei sauber bleiben.