Leader di pensiero
Uso Equo e Concorrenza in Mercati Disruptati dall’AI

Un disegno di legge bipartisan, il Transparency and Responsibility for Artificial Intelligence Networks Act (TRAIN), introdotta nel gennaio 2026, darebbe ai creatori di contenuti il potere di citazione in giudizio per obbligare la divulgazione da parte delle aziende di intelligenza artificiale. Se verrà approvata, più titolari di diritti d’autore avranno un meccanismo legale per scoprire se il loro lavoro è stato utilizzato per l’addestramento dell’AI.
A prima vista, potrebbe sembrare che questo potere dia ai titolari di diritti d’autore il diritto di richiedere pagamenti agli sviluppatori di AI. In realtà, però, sapere che il proprio lavoro è stato utilizzato senza autorizzazione preventiva non è sufficiente.
Quando si decidono casi di uso equo, i tribunali valutano quattro fattori chiave: lo scopo dell’uso, la natura dell’opera originale, quanto è stato preso e l’effetto che tale uso ha avuto sul valore di mercato del materiale. Le sentenze recenti nei tribunali degli Stati Uniti hanno riaffermato che l’uso equo rimane un pilastro dell’innovazione e non può essere facilmente respinto. L’attenzione si concentra in particolare sul fattore del danno di mercato e sulla sua dimostrazione.
Danno di Mercato come Principale Campo di Battaglia
Le decisioni sui diritti d’autore dell’AI del Northern District of California mostrano che i tribunali stanno adottando approcci diversi all’analisi dell’uso equo. In Kadrey v. Meta, il giudice Chhabria ha definito il danno di mercato “l’elemento più importante dell’uso equo”. Il giudice Alsup in Bartz v. Anthropic, d’altra parte, ha valutato tutti e quattro i fattori in modo più uniforme. Tuttavia, entrambi i giudici hanno concordato su questo: gli attori non possono semplicemente affermare di aver subito un danno – devono provarlo.
La richiesta di prove è importante per gli sviluppatori di AI, in particolare per le startup a basso budget. Se il danno deve essere provato e non presunto, gli sviluppatori possono prendere decisioni di progettazione per evitarlo. Le decisioni suggeriscono che gli sviluppatori possono ridurre il loro rischio acquisendo dati da fonti legali, progettando prodotti che servono scopi diversi dall’opera protetta da diritto d’autore e implementando misure di sicurezza per prevenire la riproduzione di grandi porzioni di testo.
Entrambe le corti Bartz e Kadrey hanno stabilito che l’addestramento dell’AI si qualifica come “uso trasformativo” ai sensi della legge sul diritto d’autore. Con ciò, l’attenzione si sta sempre più spostando sul quarto fattore dell’uso equo: il danno di mercato. Le recenti battaglie sui diritti d’autore dell’AI illustrano questo. Le affermazioni si concentrano sempre più sull’idea che le riproduzioni testuali di opere protette da diritto d’autore danneggino il valore di mercato degli editori.
Questi casi devono ancora essere decisi. Ciò che conta è che gli editori capiscono sempre più che, se vogliono vincere, devono affermare due cose: che le uscite dell’AI sostituiscono efficacemente la necessità di accedere alle opere originali e che, di conseguenza, i titolari di diritti d’autore subiscono un danno economico concreto.
Requisiti di Prova
Entrambe le corti Bartz e Kadrey sottolineano che il danno di mercato deve essere dimostrato, non assunto. In Kadrey, test estensivi hanno mostrato che il modello Llama di Meta riproduceva non più di 50 token dalle opere degli attori e solo il 60% delle volte con prompt di test progettati per far riprodurre il modello l’opera originale.
Il giudice Alsup in Bartz si è concentrato sul fatto che il modello Claude di Anthropic abbia effettivamente consegnato testi contraffatti agli utenti – gli attori non hanno sostenuto che ciò sia accaduto. Senza riproduzione, diventa più difficile affermare la sostituzione dell’opera originale.
Questo approccio basato sulla prova mostra che, anche quando i titolari di diritti d’autore dimostrano che le loro opere sono state utilizzate per l’addestramento, non hanno necessariamente un caso forte per la violazione del diritto d’autore. Se il sistema di intelligenza artificiale risultante non produce output che causano un danno di mercato identificabile, l’uso stesso ha poca importanza ai sensi della legge.
Quando il Danno di Mercato è Riconosciuto
In Thomson Reuters Enterprise Centre GmbH v. Ross Intelligence Inc., il Tribunale del Distretto del Delaware ha respinto la difesa dell’uso equo di Ross Intelligence dopo che Ross ha utilizzato i contenuti di Thomson Reuters per addestrare uno strumento di ricerca legale basato su intelligenza artificiale che competeva direttamente con Westlaw. Entrambi i fattori 1 (scopo e carattere) e 4 (effetto di mercato) dell’analisi dell’uso equo sono stati cruciali per la sentenza.
Il giudice di circuito Stephanos Bibas ha stabilito che l’uso di Ross non era trasformativo perché creava un sostituto di mercato diretto. Ross aveva inizialmente cercato di acquisire il contenuto di Westlaw, ma Thomson Reuters aveva rifiutato specificamente perché Ross era il suo concorrente. L’allineamento tra lo scopo dei materiali originali e lo scopo del prodotto AI supporta anche l’affermazione di un potenziale danno.
Al contrario, quando i prodotti AI si rivolgono a mercati diversi da quelli utilizzati per l’addestramento, stabilire la sostituzione di mercato diventa difficile. In Bartz e Kadrey, i modelli linguistici di uso generale servivano a scopi fondamentalmente diversi dai libri individuali utilizzati per l’addestramento. Questa distinzione potrebbe rivelarsi cruciale – più lontano è lo scopo di un sistema di intelligenza artificiale dalle fonti di dati di addestramento, più difficile è dimostrare la sostituzione di mercato.
L’Argomento del “Mercato di Licenza” Respinto
Entrambe le corti hanno respinto esplicitamente gli argomenti secondo cui gli sviluppatori di AI danneggiano i potenziali mercati di licenza per i dati di addestramento. Il giudice Chhabria ha spiegato che considerare le tariffe di licenza perse come un danno renderebbe l’analisi dell’uso equo circolare, favorendo automaticamente i titolari di diritti d’autore. Il giudice Alsup, a sua volta, ha stabilito che un mercato per la licenza di libri specificamente per l’addestramento dell’AI “non è uno che il Copyright Act consente agli autori di sfruttare”.
I tribunali hanno rifiutato di trattare gli accordi di licenza volontari come stabilenti un diritto legale a tariffe, almeno quando l’uso è sufficientemente trasformativo. Queste sentenze dimostrano che il mercato di licenza emergente non dà automaticamente ai titolari di diritti d’autore il diritto di vietare l’uso equo del loro lavoro.
Implicazioni Strategiche
Per i titolari di diritti d’autore, i casi più forti saranno quelli in cui la sostituzione di mercato è chiaramente identificabile. Potrebbero concentrarsi strategicamente su sistemi di intelligenza artificiale le cui uscite si avvicinano di più alle loro opere originali, piuttosto che perseguire sfide ampie all’addestramento stesso.
Se il disegno di legge TRAIN diventa legge, i titolari di diritti d’autore guadagneranno strumenti di scoperta per indagare su come vengono utilizzate le loro opere. Tuttavia, ottenere informazioni sarebbe solo il primo passo. Dimostrare il danno di mercato rimane centrale per il successo di qualsiasi richiesta di violazione del diritto d’autore.
Per gli sviluppatori di AI, le decisioni recenti forniscono un quadro per ridurre l’esposizione. In primo luogo, assicurarsi di ottenere dati legali. Entrambe le corti Bartz e Kadrey hanno distinto tra l’uso di opere per l’addestramento (uso potenzialmente equo) e l’acquisizione di opere attraverso la pirateria. Il giudice Alsup ha stabilito che il download di Anthropic da siti di pirateria era “inherentemente, irreparabilmente contraffatto”, anche se l’addestramento successivo potrebbe essere uso equo.
In secondo luogo, progettare prodotti per scopi diversi dalle fonti di dati di addestramento. Un sistema di intelligenza artificiale che aiuta gli utenti a creare documenti serve a scopi diversi dai romanzi o dagli articoli nei suoi dati di addestramento. Un sistema che semplicemente recupera o riproduce quelle opere non lo fa.
In terzo luogo, implementare salvaguardie per prevenire la riproduzione sostanziale di testi. La corte Kadrey ha notato che il sistema di Meta riproduceva contenuti minimi anche sotto test estensivi, supportando l’uso equo. Gli sviluppatori che consentono ai sistemi di rigurgitare grandi porzioni di opere protette da diritto d’autore potrebbero affrontare rischi legali significativamente maggiori.
Conclusione
Il disegno di legge TRAIN potrebbe presto dare ai titolari di diritti d’autore gli strumenti per scoprire se le loro opere sono state utilizzate per l’addestramento dell’AI. Tuttavia, le decisioni recenti rendono chiaro che una tale scoperta sarebbe solo l’inizio. Il quadro emergente negli Stati Uniti si concentra sul danno di mercato, richiedendo la dimostrazione di un danno economico identificabile piuttosto che l’uso di addestramento stesso.
Gli sviluppatori di AI dovrebbero concentrarsi su tre cose: ottenere i dati in modo legale, costruire prodotti che servono a scopi diversi dai materiali di addestramento e prevenire che i sistemi riproducano passaggi lunghi di testo. I titolari di diritti d’autore, d’altra parte, avranno i casi più forti quando potranno dimostrare che un prodotto AI sostituisce effettivamente il loro lavoro nel mercato.












