Hollywood: gli autori dei documentari vogliono mettere limiti all’IA generativa e firmano una lettera

La dichiarazione della neonata associazione dei produttori Archival Producers Alliance: "Il materiale d'archivio presentato come 'reale' in un film rischia di infangare per sempre la documentazione storica"

Durante le negoziazioni dei contratti SAG (sindacato degli attori) e WGA (sindacato degli sceneggiatori), si è parlato dell’uso dell’intelligenza artificiale a Hollywood, con l’industria che si è interrogata sull’impatto della nuova tecnologia sul futuro dell’intrattenimento. Adesso è un gruppo di produttori di documentari che spera di attirare l’attenzione sull’uso dell’IA generativa nella produzione di film non fiction, in particolare per quanto riguarda il lavoro d’archivio.

“È tempo che l’industria stabilisca degli standard in risposta alla nuova tecnologia, in modo che il rapporto di fiducia con i nostri spettatori rimanga intatto”, si legge nella lettera aperta della neonata Archival Producers Alliance. L’Alliance è composta da oltre 100 documentaristi, tra cui registi vincitori di Emmy e Oscar, che hanno lavorato con Studios e piattaforme.

Guidato da Rachel Antell e Jennifer Petrucelli di Sub-Basement Archival (Crip Camp: disabilità rivoluzionarie, 37 Words) e da Stephanie Jenkins di Florentine Films (Muhammad Ali), il gruppo chiede all’industria di stabilire delle buone pratiche e di avere maggiore trasparenza riguardo all’IA generativa (IAG), che viene utilizzata per creare nuovi materiali come foto, video o audio. Nel 2021, il documentario Roadrunner su Anthony Bourdain è stato criticato per aver generato la voce del defunto Bourdain utilizzando l’IA.

Tra gli esempi di utilizzo dell‘IA generativa in lavori d’archivio non narrativi, il gruppo cita la generazione di articoli e titoli di giornale falsi e di ricostruzioni e artefatti storici inesistenti senza identificarli come tali. Vengono inoltre utilizzate immagini “storiche” generate dall’IA che dovrebbero raffigurare persone ed eventi reali, “invece di reperire quelle reali, se disponibili”, “per risparmiare tempo e denaro”, si legge nella lettera aperta.

“Il materiale generato e presentato come ‘reale’ in un film verrà diffuso – su Internet, in altri film – e rischia di infangare per sempre la documentazione storica”, scrivono. “Riteniamo che sia imperativo che la comunità dei documentari dia il buon esempio nel creare un precedente di trasparenza e di buone pratiche”.

Il testo della lettera

Come si è visto nei recenti scioperi della WGA e della SAG, l’IA generativa (IAG) sta rivoluzionando l’industria cinematografica. Non possiamo conoscere il futuro, ma crediamo di avere la responsabilità di utilizzare l’IA in conformità con i valori giornalistici che la comunità del documentario ha da sempre. Il primo è la promessa implicita al pubblico che ciò che viene presentato come media autentico, è effettivamente autentico. Vediamo che questa rappresentazione viene distorta dall’IAG e riteniamo che sia giunto il momento per l’industria di stabilire degli standard in risposta alla nuova tecnologia, in modo che il rapporto di fiducia con i nostri spettatori rimanga intatto.

Siamo l’Archival Producers Alliance, un gruppo appassionato di registi che utilizza le proprie conoscenze collettive per influenzare le politiche e incidere sui cambiamenti del settore. I nostri lavori comprendono film vincitori di premi Emmy, Oscar e Peabody per reti televisive, piattaforme streaming, musei e sale cinematografiche. Quando svolgiamo lavoro d’archivio, collaboriamo con registi, produttori e montatori per ricercare, reperire e ottenere in licenza tutte le forme di materiali audiovisivi d’archivio. Nel settore dei documentari, siamo in prima linea per preservare l’integrità e l’etica giornalistica del materiale d’archivio utilizzato nei film a cui lavoriamo, e insieme stiamo sollevando le nostre preoccupazioni su come l’IAG influenzerà il nostro lavoro e i film documentari nel loro complesso.

Alcuni esempi di utilizzo dell’IAG che i membri dell’Alliance hanno iniziato a vedere:

Mancanza di trasparenza nei confronti del pubblico quando le voci storiche sono generate dall’IA, inducendo gli spettatori a credere di ascoltare fonti primarie autentiche quando non è così. Creazione di immagini “storiche” generate dall’IA per rappresentare persone ed eventi, anziché reperire quelle reali, se disponibili, per risparmiare tempo e denaro. Generazione di articoli e titoli di giornale falsi, allontanando gli spettatori dalle fonti basate sui fatti. Generazione di ricostruzioni e artefatti storici inesistenti senza identificarli come tali.

Riconosciamo che ci possono essere buone ragioni per i documentaristi di utilizzare i media generati dall’IA: per dare vita alle storie di persone scomparse dalla storia, o per portare gli spettatori in un’epoca o in un luogo senza un’adeguata rappresentazione visiva. Ma in assenza di standard, l’uso dell’IA rischia di distorcere la storia e di trasformare il rapporto che abbiamo con il pubblico. Il materiale generato, presentato come “reale” in un film, verrà diffuso – su internet, in altri film – e rischia di infangare per sempre la documentazione storica. La commistione tra reale e irreale macchia tutto; se non si può credere né alle immagini né all’audio, il genere non ficition è irrimediabilmente compromesso.

La sopravvivenza dell’industria del documentario, con tutto il suo potere e la sua promessa di aiutarci a capire e interpretare la nostra storia e il nostro presente, dipende dal mantenimento di un rapporto veritiero e trasparente con gli spettatori.

In particolare, in assenza di una regolamentazione di questa tecnologia in rapida evoluzione, riteniamo che sia imperativo che la comunità dei documentari dia l’esempio, creando un precedente di trasparenza e di buone pratiche.

Traduzione di Nadia Cazzaniga