La resa dei conti legale sull’intelligenza artificiale incombe. Il furto d’arte ai tempi dell’high-tech

L'uso da parte dei giganti tecnologici di opere protette da copyright per allenare ChatGPT o Midjourney potrebbe violare la legge. Tre artisti portano in tribunale le aziende che si occupano di intelligenza artificiale

Per quasi 20 anni, Karla Ortiz ha lavorato come concept artist, dando vita a un intero universo di personaggi in progetti come Black Panther, Avengers: Infinity War e Thor: Ragnarok. Le è stato attribuito il merito di aver ideato il design del personaggio principale di Doctor Strange, con la sua miscela di stili impressionisti e di realismo magico, affinata da decenni di pratica.

L’anno scorso ha appreso con orrore che il suo lavoro viene utilizzato per allenare sistemi di intelligenza artificiale generativa senza che lei ne fosse a conoscenza, e quindi senza il suo consenso. Le imitazioni del suo lavoro sono ora diffuse in tutto il web. Il suo nome è stato inserito più di 2.500 volte in Midjourney, un generatore di immagini, per creare opere simili alle sue. No, non è stata pagata.

“Lavorare tutta la vita per realizzare il proprio lavoro creativo ed essere sfruttati da un’azienda che prende le tue opere per formare un sistema che tenta di replicarle mi fa star male”, ha dichiarato Ortiz a The Hollywood Reporter.

La causa legale contro le aziende di IA

Ortiz è una dei tre artisti che hanno fatto causa ai generatori di immagini come Stability AI, Midjourney e DeviantArt, per aver utilizzato le loro opere per allenare sistemi di intelligenza artificiale generativa. Questa causa, unica nel suo genere, metterà alla prova i confini della legge sul copyright e potrebbe essere uno dei pochi casi che decideranno la legalità o meno delle modalità con cui vengono formati i cosiddetti Large Language Model (LLM).

Grazie a GPT di OpenAI, Llama di Meta e LaMDA di Google, l’IA generativa ha vissuto un anno straordinario. Si è dimostrata una filosofia unificatrice per Wall Street, mentre i dirigenti delle aziende di media hanno pubblicizzato annunci a tema IA per attirare gli investitori. L’amministratore delegato di Endeavor, Ari Emanuel, a febbraio ha aperto il discorso sugli utili della sua società con commenti generati da un’azienda di IA chiamata Speechify. I dirigenti di YouTube, Spotify e BuzzFeed hanno annunciato piani analoghi per l’impiego di questa tecnologia. A porte chiuse, però, le aziende avvertono che il modo in cui viene costruita la maggior parte dei sistemi di IA potrebbe essere illegale.

“Potremmo non avere la meglio nelle controversie in corso o future”, si legge in un documento di bilancio pubblicato da Adobe. Il testo cita controversie sulla proprietà intellettuale che potrebbero “sottoporci a responsabilità significative, richiederci di stipulare accordi di royalty e di licenza a condizioni sfavorevoli” ed eventualmente imporre “ingiunzioni che limitino la vendita dei nostri prodotti o servizi”.

A marzo Adobe ha presentato il generatore di immagini e testi AI Firefly. Sebbene il primo modello sia formato solo su immagini di stock, Adobe ha dichiarato che le versioni future “sfrutteranno una varietà di risorse, tecnologie e dati di formazione di Adobe e di altri”.

IA, un uso legittimo?

Gli ingegneri che costruiscono questi sistemi, noti come modelli linguistici estesi, con voluminosi database di immagini scaricate da Internet senza licenze. La causa degli artisti si basa sull’argomentazione che la pratica di alimentare questi sistemi con opere protette da copyright costituisce un furto di proprietà intellettuale. L’accertamento della violazione potrebbe mettere in discussione il modo in cui viene costruita la maggior parte dei sistemi di IA (in assenza di una regolamentazione che ponga dei paletti al settore).

Se si scopre che le aziende di IA hanno violato i diritti d’autore, potrebbero essere costrette a distruggere i dataset (i database con tutti i dati raccolti) composti da opere protette da copyright. Rischiano inoltre sanzioni severe, fino a 150mila dollari per ogni violazione.

Le aziende di IA sostengono che la loro condotta è protetta dal fair use, che consente l’utilizzo di opere protette da copyright senza autorizzazione, purché l’uso sia trasformativo. La dottrina consente l’uso senza licenza di opere protette da copyright in circostanze limitate. I fattori che determinano la qualificazione di un’opera sono lo scopo dell’uso, il grado di somiglianza e l’impatto dell’opera derivata sul mercato dell’originale.

Il punto centrale della causa degli artisti è dimostrare che i sistemi di intelligenza artificiale non creano opere “trasformative”, ovvero che lo scopo dell’opera protetta dal diritto d’autore viene alterato per creare qualcosa con un nuovo significato o messaggio.

Il caso Google Books

Alla proposta di class action da parte degli artisti, la riposta di Stability Ai è stata lapidaria: “Chiunque creda che questo non sia fair use non capisce la tecnologia e fraintende la legge”.

Eric Goldman, co-direttore dell’High Tech Law Institute presso la Santa Clara University School of Law, concorda sul fatto che le aziende di intelligenza artificiale probabilmente soddisfano i criteri per il fair use. “Nessuno di coloro che oggi si lamentano per il furto del proprio lavoro è arrivato a questo punto senza aver fatto affidamento sulle spalle degli altri”, afferma Goldman. “Le persone imparano l’una dall’altra”.

Goldman indica inoltre precedenti che autorizzano la copia di opere per produrre risultati non illeciti. Nel 2005 la Authors Guild ha portato Google in tribunale per aver digitalizzato decine di milioni di libri per creare una funzione di ricerca, in un caso seguito da vicino dalla Motion Picture Association e praticamente da tutti i gruppi di lavoro che rappresentano gli scrittori.

Un giudice federale ha infine respinto le richieste di violazione del copyright e ha stabilito che l’utilizzo da parte di Google delle opere protette da copyright degli autori equivale a un fair use. Il punto centrale della sentenza è che Google ha permesso agli utenti di visualizzare frammenti di testo senza fornire l’opera completa.

Poco ottimismo sull’IA

Rispetto al 2005, quando c’era più ottimismo sul fatto che la tecnologia nascente potesse essere impiegata per aiutare le industrie invece di smantellarle, oggi gli artisti e i dirigenti dei media hanno una visione molto più negativa delle big tech.

Potrebbe verificarsi un cambiamento potenzialmente sismico nel modo in cui le persone consumano le notizie se Google. Ad esempio, se il motore di ricerca smettesse di indirizzare il traffico alle testate giornalistiche preferendo invece una risposta di un chatbot alle domande degli utenti. Alcune aziende del settore dei media, come l’Associated Press, hanno già stipulato accordi di licenza, mentre altre, come News Corp, sono in trattativa con aziende di IA. 

L’uso trasformativo

Matthew Butterick, un avvocato che rappresenta gli autori, sottolinea che le aziende di IA stanno producendo “materiale completamente nuovo che viene proposto come sostituto dei dati di formazione” per trarne profitto, mentre Google stava solo realizzando un indice per i libri, che rimandava poi alle opere originali. “Questa è stata la soglia di demarcazione della legge sul fair use per molto tempo”, ha affermato.

L’argomentazione degli artisti, secondo cui le aziende di IA stanno attivamente danneggiando i loro interessi economici creando opere concorrenti sulla base della loro arte, potrebbe far pendere il caso a loro favore. Per orientarsi, potrebbero guardare alla recente decisione della Corte Suprema che ha respinto la difesa del fair use nella causa Andy Warhol Foundation for the Visual Arts contro Goldsmith.

In quel caso, una maggioranza di 7-2 ha sottolineato che l’analisi per stabilire se l’opera secondaria sia stata sufficientemente trasformata per proteggere dalla violazione del copyright deve considerare anche la natura commerciale dell’uso. Secondo i giudici, il fair use non è applicabile quando un’opera originale e una derivata condividono “lo stesso scopo o uno scopo molto simile” e l’uso secondario è commerciale. Il giudice associato Sonia Sotomayor ha osservato che una sentenza contraria consentirebbe essenzialmente agli artisti di apportare lievi modifiche a una foto originale e di venderla rivendicando un uso trasformativo.

Opera “nello stile di”

“Il quadro di riferimento delineato nella decisione sul caso Warhol sostiene la tesi degli artisti e si oppone al fair use“, afferma Scott Sholder, avvocato specializzato in controversie sulla proprietà intellettuale. “La copia e l’uso di opere protette da copyright per scopi di formazione dell’intelligenza artificiale è un uso commerciale non trasformativo, che consente a terzi di creare, di fatto a comando, potenziali sostituti sul mercato delle rispettive opere”.

In particolare, Midjourney e altri generatori d’arte AI consentono agli utenti di creare opere “nello stile” di altri artisti, rendendoli potenziali concorrenti. Spaventata dall’idea che le aziende di IA esplorino indiscriminatamente il web per raccogliere opere d’arte, libri e dati personali, Ortiz ha nascosto il suo portfolio dietro una pagina protetta da password sul suo sito web personale. Sostiene che la minore visibilità del suo lavoro valga la pena per la sua protezione.

Il giudice che supervisiona la sua causa potrebbe però non aver bisogno di decidere il caso sull’uso corretto, che di solito viene analizzato con un giudizio sommario prima del processo. Il giudice distrettuale William Orrick ha dichiarato di essere “propenso a respingere quasi tutto”, con la possibilità di ripresentare le richieste di risarcimento, perché gli artisti non hanno ancora indicato esempi specifici di opere violate o di output creati dall’IA che violano i diritti d’autore esistenti: una condizione necessaria per denunciare la violazione.

Le aziende di IA citate nella causa sostengono che gli artisti non saranno in grado di soddisfare questo requisito perché è impossibile per i loro sistemi produrre repliche esatte o quasi esatte di opere protette da copyright.

“Non si tratta solo di automazione”

Alcune aziende, tuttavia, hanno avvertito che i loro modelli copiano spontaneamente le opere dai set di formazione senza alcun compenso o attribuzione, come GitHub con Copilot: citato in un’altra causa per copyright. Midjourney ha deciso di bloccare “Afghan Girl” come prompt dopo aver scoperto che il generatore d’arte stava creando copie con leggere variazioni della foto di Steven McCurry del 1984. La ricerca di “Migrant Mother” di Dorothea Lange produce opere quasi identiche, anche se la foto è di dominio pubblico.

Il caso degli artisti sarà deciso mentre i tribunali sono sempre più orientati a far rispettare i diritti di proprietà intellettuale, senza respingere prematuramente le cause sul copyright. L’anno scorso la Corte d’Appello del 9° Circuito degli Stati Uniti ha riaperto una causa contro M. Night Shyamalan che lo accusava di aver violato il copyright di un film indipendente del 2013 per creare Servant, concludendo che la testimonianza di esperti e la ricerca sono necessarie per valutare se le opere sono veramente simili. La decisione è stata la terza, almeno dal 2020, di una corte d’appello federale che ribalta il verdetto espresso da una corte inferiore sull’archiviazione di una causa per violazione del diritto d’autore; le altre hanno riguardato il primo film dei Pirati dei Caraibi e La forma dell’acqua.

In questo contesto, alcune aziende di IA si sono rivolte alla concessione di licenze sui dati per evitare problemi legali. Alcuni artisti sono favorevoli a tali licenze per ottenere un compenso per il loro lavoro. Ortiz non ne è così sicura. “Non si tratta solo di automazione, ma di automazione che decima intere industrie grazie al vostro lavoro”, afferma. E conclude: “È per questo che la SAG-AFTRA e la WGA stanno combattendo”.

Traduzione di Pietro Cecioni