Algoritmi che decidono quali storie raccontare: l’intelligenza artificiale già domina Hollywood

Le nuove tecnologie stanno rivoluzionando l'intrattenimento, ma attenzione alle insidie delle “black box” che decidono cosa è popolare, e cosa raccontare. Nella non-fiction la posta in gioco è molto alta

L’Intelligenza artificiale (IA) ha già scavalcato i cancelli di Hollywood. I produttori cinematografici sono ricompensati con contratti stellari per lo sviluppo di progetti che alimentano le IA cosiddette “black box”. Gli studios e le piattaforme tengono per sé grandi dati sugli spettatori, e questi vengono costruiti attraverso cicli di feedback creati dai “raccomandati”, che a loro volta sono influenzati dai comportamenti degli spettatori.

Sui social media, i TikTokers vengono premiati con molte visualizzazioni per aver adattato i propri contenuti a un algoritmo. Sono sempre più le macchine a creare valore, e tra TikTok e le piattaforme di streaming si sta chiudendo il prezioso spazio che consente l’innovazione basata sull’elemento umano.

La TikTokizzazione si diffonde quindi a macchia d’olio e la Writers Guild ha ragione a spingere per delle tutele contro l’IA. Ma un abito in cui sono necessarie tutele urgenti è quello dei documentari e della nonfiction.

La posta in gioco è alta, e diverse carriere sono in bilico. Ma la minaccia non sono i video realizzati dalle IA in cui Wes Anderson dirige Star Wars, ma il fatto che si stia imponendo una sorta di piattaforma dell’arte alimentata dall’IA – lo stiamo già vedendo nel panorama dei media – con algoritmi che decidono quali storie raccontare e come, su scala globale. Tutto ciò è insidioso nel settore della non-fiction.

I pericoli dell’intelligenza artificiale

“Il pericolo non riguarda tanto l’IA nella creazione o produzione di documentari, ma sta nella supervisione”, afferma Amit Dey, vicepresidente esecutivo per la non-fiction di MRC (uno studio che si occupa di intrattenimento), che tra gli altri ha in cantiere documentari – ancora senza titolo – su Sly Stone e Rudy Giuliani. “Una cosa è far competere sul mercato i film prodotti dall’uomo con quelli prodotti dai robot. Un’altra cosa è quando i dati, sotto forma di intelligenza artificiale o di algoritmi proprietari, determinano le decisioni su ciò a cui il pubblico è esposto. In altre parole, cosa viene acquistato e quando. Cosa riceve visibilità e dove. Quali storie vengono raccontate”.

Il produttore, e veterano dei media, Evan Shapiro sostiene che l’esternalizzazione della responsabilità è una tradizione consolidata a Hollywood. Dai dial test ai focus group passando dal “non è piaciuto ai miei figli”, un certo tipo di dirigenti televisivi “ha da tempo delegato le decisioni sui progetti da approvare a una serie di reti di sicurezza di terze parti, che li proteggono dal dover fare scelte in prima persona”, afferma Shapiro. “Questi dispositivi permettono ai dirigenti di prendersi il merito quando gli spettacoli funzionano e di scaricare facilmente le responsabilità quando non funzionano. L’intelligenza artificiale è semplicemente l’ultima moda in fatto di scuse”.

L’IA nella produzione cinematografica

Alla XTR, che ha realizzato la docuserie su Magic Johnson, They Call Me Magic, per Apple TV+, l’amministratore delegato Bryn Mooser ha costruito un algoritmo proprietario di nome “Rachel” per guidare il processo di sviluppo di contenuti. Lo definisce una “macchina dello Zeitgeist” che passa al setaccio i social media per vedere cosa è di tendenza e poi concentra lo sviluppo su quei segnali. “Ho ricevuto un sacco di critiche a riguardo”, dice Mooser. “Poi è arrivato ChatGPT e il mondo è cambiato da un giorno all’altro. L’abbiamo sempre visto come uno strumento, e come tale è incredibilmente utile. Quali conversazioni sono di tendenza. Di cosa parlano le persone”.

Continua dicendo: “L’abbiamo costruito in modo da poterlo sovrapporre ai dati storici del settore documentaristico. Cosa funziona, cosa non funziona. La sua applicazione come strumento per migliorare ciò che i registi possono fare è incredibilmente potente e importante. E spero che venga accettato”. È anche vero che i dirigenti umani continuano a prendere le decisioni sull’approvazione finale per queste piattaforme, ma con la crescente ricchezza e potenza dei dati generati dall’intelligenza artificiale – dati che hanno dimostrato di influenzare il coinvolgimento degli spettatori, nel bene e nel male – i dirigenti sono sempre meno inclini a difendere le decisioni.

Perché rischiare con contenuti nuovi quando, per esempio, il genere true crime porta un successo sicuro, secondo i dati? Il fatto che un dirigente voglia evitare problemi, soprattutto in questo mercato del lavoro, fa parte della natura umana. Ma nella cultura di Hollywood, ora alimentata dall’intelligenza artificiale, a furia di evitare problemi i dirigenti potrebbero finire per diventare insignificanti.

L’uso della tecnologia deepfake

Nel 2021, il regista Morgan Neville ha utilizzato l’intelligenza artificiale per ricreare la voce di Anthony Bourdain nel documentario Roadrunner. Da parte sua, Morgan ha estratto solo citazioni reali da interviste di Bourdain sulla stampa, e ha usato la tecnologia deepfake “per renderle vive”. L’anno scorso, la docuserie di Netflix I diari di Andy Warhol si è addentrata in un terreno simile, ricreando la voce di Warhol e utilizzandola come voce narrante. Ora che la tecnologia AI è talmente avanzata che può far apparire audio, video o foto completamente falsi come se fossero reali, questo tipo di controversia sembra molto meno accesa.

C’è molto da dire sullo spostamento dei paletti dell’etica nella realizzazione di documentari al giorno d’oggi, con o senza l’uso dell’IA come strumento. La forza più sinistra in gioco, tuttavia, alla base di quelle che potrebbero essere considerate ampie violazioni etiche, è la potenziale delega della supervisione umana agli algoritmi e lo sfruttamento dei dati. Sì, in passato c’erano i focus group e i dial test. I dati Nielsen. Ma i processi alla base di queste informazioni erano trasparenti. C’era una responsabilità umana. Man mano che il settore cede un numero maggiore di decisioni all’intelligenza artificiale “black-box”, la tecnologia cessa di essere uno strumento per semplificare lo sviluppo e massimizzare i profitti, e diventa essa stessa il fattore decisionale.

Salvaguardia dei documentari dalle IA

La narrazione non-fiction è ciò che forma la nostra comprensione del mondo reale. Per questo motivo, preservare la supervisione umana sui documentari è più urgente rispetto ad altri generi. Hollywood ha sempre tentato di trovare un equilibrio tra le esigenze commerciali e l’espressione artistica, permettendo di forgiare il proprio marchio nel corso della storia. Ma ora più che mai è in gioco il rapporto con la realtà. La disinformazione è una piaga dilagante sui social media, e la colpa è in gran parte degli algoritmi di selezione.

Per adempiere al suo obbligo di dire la verità, inoltre, la non-fiction richiede la fiducia del suo pubblico – fiducia radicata nella trasparenza e nell’integrità – e per costruirla si affida esclusivamente al controllo umano, dall’inizio alla fine. Prendendo la tecnologia deepfake come esempio, se lo spettatore non può fidarsi della veridicità delle immagini che vede o dell’audio che sente, il film perde la sua forza. A differenza del cinema narrativo o della televisione, se il pubblico non può fidarsi dell’integrità di un documentario come opera di non-fiction, tutto crolla.

“Joe Hunting, i fratelli Ross, Jessica Beshir sono registi che stanno apportando cambiamenti con la loro arte”, aggiunge Mooser. “Ci vorrà molto tempo prima che l’intelligenza artificiale possa competere con loro”. Per quanto riguarda la responsabilità, lo stesso si può dire per il livello amministrativo della non-fiction, il ruolo editoriale occupato dal dirigente cinematografico (e sempre più plasmato dai dati generati dall’intelligenza artificiale). Con un essere umano al timone, il pubblico può mettere in discussione le motivazioni dietro l’approvazione di un film da parte di uno studio o di una piattaforma, ma non può mettere in discussione le motivazioni di un algoritmo che mostra qualcosa al pubblico perché ritiene quel contenuto “popolare”.

Scenari futuri: infrangere le regole

Per Josh Braun, co-presidente del colosso dei documentari Submarine, c’è un profondo desiderio di infrangere le regole che ci definisce come esseri umani, e che si esprime in una perenne brama di freschezza e di novità. “Questo è l’elemento che ci salverà da un potenziale scenario da incubo. Comunque la si guardi, le persone hanno reazioni viscerali alle cose. Questo farà tornare in distribuzione i documentari più interessanti. Case di produzione come Neon, A24, Magnolia, IFC: questi sono i luoghi in cui si stanno facendo affari”, dice Braun.

E il mercato indie potrebbe essere il baluardo. “Saranno i titoli più di nicchia a ringiovanire il mercato delle sale”, afferma sempre Braun. “Non c’è lo stesso livello di scelta sulle piattaforme guidate dagli algoritmi”. Mentre l’industria integra l’intelligenza artificiale in ogni aspetto del business, la tecnologia deve rimanere uno strumento, non un sostituto del giudizio e della responsabilità umana. Questo è ciò per cui la Writers Guild sta facendo pressione, in questo momento di stallo con i produttori e gli Studios. Proteggere l’integrità della narrazione non-fiction è fondamentale, dato che è uno dei pochi ambiti in cui la verità è sacrosanta.

Traduzione di Nadia Cazzaniga