Diritto d’autore tradizionale e le nuove frontiere dell’Intelligenza Artificiale Generativa.

Nel dicembre 2023 il New York Times ha fatto causa a OpenAI (Microsoft). Tra i due contendenti, che avevano prima cercato un’intesa senza successo, la Corte del distretto federale di Manhattan.

L’accusa:

Uso non autorizzato di contenuti protetti

Concorrenza sleale

Declino dell’informazione e della libertà di stampa

Il Fair use; copia e incolla di intere parti di testo (verbatim)

Proviamo a dare una lettura alle principali violazioni e alle conseguenti implicazioni, secondo i legali del NYT.

Gli articoli pubblicati dal giornale sono stati utilizzati senza autorizzazione e senza trasferimento di valore, per addestrare i modelli (LLM) che verranno utilizzati per creare nuovi contenuti. Prendo il contenuto, addestro il modello e poi uso il modello per creare nuovo contenuto. I modelli sono anche in grado di replicare lo stile dei giornalisti (scrittori, poeti etc.) i cui articoli sono stati utilizzati per l’addestramento. Attualmente il NYT ha più di 11 milioni di abbonati tra prodotti online e cartaceo. Il 60% dei suoi lettori è costituito da generazione Z e millenials (fonte statistica).

L’accesso a informazioni affidabili è un diritto fondamentale del consumatore. Il giornalismo indipendente e di qualità è utile e funzionale alla democrazia. I sistemi di AI generativa soffrono di allucinazioni. Accade, con una certa frequenza, che le risposte siano formulate in modo credibile e coerente, ma che le informazioni fornite siano invece errate o fuorvianti. Spesso i sistemi, nell’ambito di questo processo allucinatorio, citano le fonti, nello specifico il NYT, causando un ulteriore danno al giornale. Il consumatore dovrebbe essere informato che il contenuto da lui fruito è stato generato da un sistema di AI.

Il Fair use è una normativa anglosassone che con regolamentazioni diverse si è estesa a gran parte del pianeta. Negli Stati Uniti la Sezione 107 del Copyright Act prevede che l’uso equo di un’opera “per scopi come critica, commento, informazione giornalistica, insegnamento (inclusa la produzione di copie multiple per uso in classe, borsa di studio o ricerca)” non costituisca una violazione del copyright. La domanda è: l’addestramento dei modelli (LLM) può rientrare in questa normativa?

Il NYT chiede, oltre al risarcimento danni, la cancellazione di tutte le versioni addestrate di ChatGpt e dei relativi modelli (LLM), in parole povere tutto il lavoro a monte per la generazioni dei modelli, ma anche il rischio futuro sulla nuova generazione di tali modelli. Una questione gigantesca.

OpenAI risponde che c’era in atto una trattativa per una partnership che avrebbe fatto ottenere agli utenti del giornale un nuovo modo per connettersi, mentre quelli di Chat Gpt avrebbero avuto accesso ai report del giornale. OpenAi contro accusa il NYT di avere manipolato le domande per ottenere come risposta i materiali del NYT.

Quella tra il NYT e OpenAI è la prima causa tra un colosso del giornalismo e un altro colosso, ma della tecnologia. La sentenza avrà un impatto a cascata su tutte le altre diventando, con tutta probabilità, un punto di riferimento per quelle future.

Il centro di ricerca che supporta il lavoro del Congresso americano ha sostenuto in un report che le sentenze relative ai casi di “Furto di proprietà intellettuale” da parte di AI potrebbero costituire la base su cui costituire un’azione legislativa valida negli Stati Uniti.

Alla Corte del distretto federale di Manhattan l’ardua sentenza. Trovare un punto di equilibrio tra innovazione e diritto d’autore. In che misura l’uso dei dati per addestrare le macchine può essere considerato legittimo e non una violazione del copyright?

Marziana Monfardini

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *