Bloccate su X le ricerche su “Taylor Swift” dopo i suoi nudi generati dall’intelligenza artificiale

Se si cerca il nome della popstar sull'ex Twitter non viene più visualizzato nessun risultato. E mentre la Casa Bianca chiede al Congresso di intervenire contro i deepfake, Elon Musk rimane in silenzio

Blank Space, uno spazio vuoto: ecco cosa si è trovato davanti sabato 27 gennaio chi ha provato a cercare “Taylor Swift” su Twitter/X, perché il social network non mostra più alcun risultato di ricerca per la popstar, dopo che una proliferazione di nudi pornografici generati dall’IA ha invaso il servizio all’inizio di questa settimana.

Il servizio non mostra nemmeno risultati per “Taylor Swift nuda” o “Taylor Swift IA”, i termini di ricerca ampiamente utilizzati per far circolare le immagini illecite. Ma le ricerche apparentemente innocue, come “Taylor Swift cantante”, continuano a dare risultati.

La mossa fa seguito all’intervento della Casa Bianca, che venerdì 26 gennaio ha esortato il Congresso a “intraprendere un’azione legislativa”. La responsabile dei rapporti con la stampa Karine Jean-Pierre ha dichiarato a ABC News: “Siamo allarmati dalle notizie sulla… circolazione delle immagini che avete appena descritto, di immagini false, per essere più precisi, ed è allarmante… Anche se le aziende di social media prendono le loro decisioni indipendenti sulla gestione dei contenuti, crediamo che abbiano un ruolo importante da svolgere nel far rispettare le loro regole per prevenire la diffusione di disinformazione e di immagini intime non consensuali di persone reali”.

Nel frattempo, il deputato di New York Joe Morelle sta citando i nudi di Swift per spingere ad approvare una legge che renda la condivisione non consensuale di immagini esplicite modificate digitalmente un reato federale.

X e altri social media hanno cercato di ripulire le loro piattaforme dalle immagini di Swift, che sono diventate virali mercoledì 24 gennaio, ma al loro posto hanno iniziato a circolare nuove immagini false ispirate a Swift e diverse dalle prime, rendendo forse più difficile l’applicazione delle regole.

Le prime immagini ritraevano la cantante in body paint rosso che si divertiva a fare sesso con i fan dei Kansas City Chiefs, prendendo in giro la sua relazione con il giocatore dei Chiefs Travis Kelce. Domenica 28 gennaio i Chiefs giocheranno la partita cruciale del campionato AFC contro i Baltimore Ravens, che deciderà quale squadra andrà al Super Bowl.

Finora, il capo di Twitter/X Elon Musk è rimasto insolitamente in silenzio sulla questione, commentando invece sabato 27 gennaio questioni come la chiusura di un negozio di giocattoli a San Francisco a causa dei problemi di criminalità della città. Anche Swift non ha rilasciato alcun commento, anche se voci non verificate hanno affermato che la cantante starebbe valutando la possibilità di intraprendere un’azione legale.

Venerdì 26 gennaio anche la SAG-AFTRA (il sindacato degli attori di Hollywood, ndr) ha rilasciato una dichiarazione sulle immagini, scrivendo che “sono sconvolgenti, dannose e profondamente preoccupanti”.

“Lo sviluppo e la diffusione di immagini false – specialmente quelle di natura oscena – senza il consenso di qualcuno deve essere reso illegale”, ha continuato il sindacato. “Come società, abbiamo il potere di controllare queste tecnologie, ma dobbiamo agire ora prima che sia troppo tardi. La SAG-AFTRA continua a sostenere la proposta di legge del deputato Joe Morelle, il Preventing Deepfakes of Intimate Images Act, per assicurarsi che questo tipo di sfruttamento non si ripeta. Sosteniamo Taylor e le donne di tutto il mondo che sono vittime di questo tipo di furto della loro privacy e del loro diritto all’autonomia”.

Il problema dei deepfake è una preoccupazione anche in vista delle elezioni presidenziali di quest’anno negli Stati Uniti. Di recente è stata utilizzata una robocall, una chiamata con voce registrata, che imitava la voce di Biden, per cercare di influenzare le primarie di martedì 23 gennaio in New Hampshire.

Traduzione di Nadia Cazzaniga