Vordenker
Fair Use und Wettbewerb in von KI gestörten Märkten

Ein parteiübergreifender Gesetzesentwurf, der Transparency and Responsibility for Artificial Intelligence Networks Act (TRAIN), eingeführt im Januar 2026, würde Inhabern von geistigen Eigentumsrechten die Befugnis geben, AI-Unternehmen zur Offenlegung zu zwingen. Wenn er verabschiedet wird, werden mehr Urheberrechtsinhaber ein legales Mittel haben, um herauszufinden, ob ihre Arbeit für die AI-Schulung verwendet wurde.
Auf den ersten Blick mag dies wie eine Befugnis erscheinen, die es mehr Urheberrechtsinhabern ermöglichen würde, Zahlungen von AI-Entwicklern zu fordern. In Wirklichkeit jedoch reicht es nicht aus, zu wissen, dass Ihre Arbeit ohne vorherige Genehmigung verwendet wurde.
Bei der Entscheidung über Fälle von Fair Use berücksichtigen Gerichte vier wichtige Faktoren: den Zweck der Verwendung, die Art des Originalwerks, wie viel verwendet wurde und die Auswirkung, die diese Verwendung auf den Marktwert des Materials hatte. Jüngste Urteile in US-Gerichten haben bestätigt, dass Fair Use ein Eckpfeiler der Innovation bleibt und nicht leicht abgetan werden kann. Der Fokus liegt insbesondere auf dem Faktor des Marktschadens und dessen Nachweis.
Marktschaden als Hauptkampffeld
AI-Urheberrechtsentscheidungen aus dem Northern District of California zeigen, dass Gerichte unterschiedliche Ansätze bei der Fair-Use-Analyse verfolgen. In Kadrey v. Meta bezeichnete Richter Chhabria den Marktschaden als “das wichtigste Element des Fair Use”. Richter Alsup in Bartz v. Anthropic berücksichtigte hingegen alle vier Faktoren gleichmäßig. Beide Richter stimmten jedoch darin überein: Kläger können nicht einfach Schaden geltend machen – sie müssen beweisen, dass er eingetreten ist oder wahrscheinlich ist.
Die Beweisanforderung ist für AI-Entwickler, insbesondere für kapitalarme Start-ups, von Bedeutung. Wenn der Schaden nachgewiesen werden muss und nicht angenommen wird, können Entwickler Designentscheidungen treffen, um ihn zu vermeiden. Die Entscheidungen deuten darauf hin, dass Entwickler ihr Risiko reduzieren können, indem sie Daten aus legalen Quellen beziehen, Produkte entwerfen, die unterschiedliche Zwecke von den urheberrechtlich geschützten Werken erfüllen, und Sicherheitsvorkehrungen implementieren, um die Reproduktion großer Textpassagen zu verhindern.
Sowohl der Bartz– als auch der Kadrey-Gerichtshof entschieden, dass die AI-Schulung als “transformative Verwendung” im Urheberrecht qualifiziert ist. Damit verschiebt sich der Fokus zunehmend auf den vierten Faktor des Fair Use: den Marktschaden. Jüngste AI-Urheberrechtskämpfe veranschaulichen dies. Die Klagen konzentrieren sich zunehmend auf die Idee, dass wörtliche Reproduktionen urheberrechtlich geschützter Werke den Marktwert der Verleger schädigen.
Diese Fälle bleiben zu entscheiden. Was zählt, ist, dass Verleger zunehmend verstehen, dass sie, wenn sie gewinnen wollen, zwei Dinge geltend machen müssen: dass AI-Ausgaben die Notwendigkeit, auf die Originalwerke zuzugreifen, ersetzen und dass die Urheberrechtsinhaber infolgedessen konkreten wirtschaftlichen Schaden erleiden.
Beweisanforderungen
Sowohl Bartz als auch Kadrey betonen, dass der Marktschaden nachgewiesen werden muss und nicht angenommen wird. In Kadrey zeigte umfangreiche Tests, dass Metas Llama nicht mehr als 50 Token aus den Werken der Kläger reproduzierte und dies nur 60 % der Zeit unter manipulativen Prompts, die darauf abzielten, das Modell dazu zu bringen, das Originalwerk zu reproduzieren.
Richter Alsup in Bartz konzentrierte sich darauf, ob Anthropics Claude tatsächlich verletzende Texte an Benutzer lieferte – die Kläger behaupteten nicht, dass dies geschehen sei. Ohne Reproduktion wird es schwieriger, Substitution für das Originalwerk geltend zu machen.
Dieser beweisbasierte Ansatz zeigt, dass Urheberrechtsinhaber, auch wenn sie nachweisen, dass ihre Werke für die Schulung verwendet wurden, nicht unbedingt einen starken Fall für Verletzung haben. Wenn das resultierende AI-System keine Ausgaben produziert, die identifizierbaren Marktschaden verursachen, ist die bloße Verwendung von geringer Bedeutung im Rahmen des Gesetzes.
Wenn Marktschaden anerkannt wird
In Thomson Reuters Enterprise Centre GmbH v. Ross Intelligence Inc. wies das Bezirksgericht für den Bezirk Delaware die Fair-Use-Verteidigung von Ross Intelligence zurück, nachdem Ross Thomson Reuters’ Westlaw-Headnotes zur Schulung eines AI-Rechtsforschungstools verwendet hatte, das direkt mit Westlaw konkurrierte. Sowohl Faktor 1 (Zweck und Charakter) als auch Faktor 4 (Markteffekt) der Fair-Use-Analyse waren für die Entscheidung von entscheidender Bedeutung.
Richter Stephanos Bibas fand, dass die Verwendung durch Ross nicht transformativ war, da sie einen direkten Marktersatz schuf. Ross hatte ursprünglich versucht, Westlaws Inhalt zu lizenzieren, aber Thomson Reuters hatte dies abgelehnt, weil Ross ein Konkurrent war. Die Übereinstimmung zwischen dem Zweck des Originalmaterials und dem Zweck des AI-Produkts unterstützt auch den Anspruch auf potenziellen Schaden.
Umgekehrt wird es schwierig, Marktersatz nachzuweisen, wenn AI-Produkte Märkte anvisieren, die sich von denen unterscheiden, die für die Schulung verwendet werden. In Bartz und Kadrey dienten allgemeine Sprachmodelle grundlegend anderen Zwecken als die einzelnen Bücher, die für die Schulung verwendet wurden. Dieser Unterschied kann von entscheidender Bedeutung sein – je weiter die Zwecke eines AI-Systems von seinen Trainingsdatenquellen entfernt sind, desto schwieriger ist es, Marktersatz nachzuweisen.
Das “Lizenzmarkt”-Argument abgelehnt
Beide Gerichte lehnten ausdrücklich Argumente ab, dass AI-Entwickler Lizenzmärkte für Trainingsdaten schädigen. Richter Chhabria erklärte, dass die Behandlung verlorener Lizenzgebühren als Schaden die Fair-Use-Analyse zirkulär machen würde, was automatisch den Urheberrechtsinhabern zugute käme. Richter Alsup fand, dass ein Markt für die Lizenzierung von Büchern speziell für die AI-Schulung “kein Markt ist, den das Urheberrechtsgesetz den Autoren zur Ausbeutung gewährt”.
Die Gerichte lehnten es ab, freiwillige Lizenzvereinbarungen als rechtliche Anspruch auf Gebühren zu behandeln, zumindest wenn die Verwendung ausreichend transformativ war. Diese Entscheidungen zeigen, dass der entstehende Lizenzmarkt Urheberrechtsinhabern nicht automatisch das Recht gibt, die faire Verwendung ihrer Werke zu verbieten.
Strategische Auswirkungen
Für Urheberrechtsinhaber werden die stärksten Fälle diejenigen sein, bei denen der Marktersatz klar identifizierbar ist. Sie könnten strategisch auf AI-Systeme fokussieren, deren Ausgaben ihre Originalwerke am nächsten approximieren, anstatt breite Herausforderungen an die Schulung selbst zu stellen.
Wenn der TRAIN Act Gesetz wird, erhalten Urheberrechtsinhaber Entdeckungstools, um zu untersuchen, wie ihre Werke verwendet werden. Allerdings wäre das Erhalten von Informationen nur der erste Schritt. Der Nachweis des Marktschadens würde weiterhin im Mittelpunkt des Erfolgs jeder Verletzungsanzeige stehen.
Für AI-Entwickler bieten jüngste Entscheidungen einen Rahmen für die Reduzierung der Haftung. Erstens sollten sie sicherstellen, dass ihre Daten aus legalen Quellen stammen. Sowohl Bartz als auch Kadrey unterschieden zwischen der Verwendung von Werken für die Schulung (potenziell fairer Verwendung) und der Beschaffung durch Piraterie. Richter Alsup fand, dass Anthropics Download von Piratenseiten “von Natur aus, unwiderruflich verletzend” war, auch wenn die anschließende Schulung fairer Verwendung sein könnte.
Zweitens sollten sie Produkte für Zwecke entwerfen, die sich von den Trainingsdatenquellen unterscheiden. Ein AI-System, das Benutzern hilft, Dokumente zu erstellen, dient anderen Zwecken als Romane oder Artikel in seinen Trainingsdaten. Ein System, das einfach diese Werke abruft oder reproduziert, dient nicht denselben Zwecken.
Drittens sollten sie Sicherheitsvorkehrungen implementieren, um die Reproduktion umfangreicher wörtlicher Textpassagen zu verhindern. Der Kadrey-Gerichtshof stellte fest, dass Metas System nur minimale Inhalte reproduzierte, selbst unter widerspenstigen Tests, was die faire Verwendung unterstützte. Entwickler, die Systeme zulassen, die große Teile urheberrechtlich geschützter Werke wiedergeben, können ein erheblich höheres rechtliches Risiko eingehen.
Schlussfolgerung
Der TRAIN Act könnte Urheberrechtsinhabern bald Tools geben, um herauszufinden, ob ihre Werke für die AI-Schulung verwendet wurden. Allerdings machen jüngste Entscheidungen deutlich, dass eine solche Entdeckung nur der Anfang wäre. Der entstehende US-Rahmen konzentriert sich auf den Marktschaden, der den Nachweis identifizierbaren wirtschaftlichen Schadens erfordert und nicht nur die bloße Verwendung für die Schulung.
AI-Entwickler sollten sich auf drei Dinge konzentrieren: Beziehen Sie Ihre Daten aus legalen Quellen, bauen Sie Produkte, die Zwecke erfüllen, die über Ihre Trainingsmaterialien hinausgehen, und verhindern Sie, dass Ihre Systeme umfangreiche Textpassagen wörtlich reproduzieren. Urheberrechtsinhaber hingegen werden die stärksten Fälle haben, wenn sie nachweisen können, dass ein AI-Produkt tatsächlich ihre Arbeit im Markt ersetzt.












