Ecco la scappatoia che potrebbe far deragliare la legge europea sull’intelligenza artificiale

“La stessa azienda a cui si rivolge la regolamentazione ha ora il potere di decidere unilateralmente se debba essere applicata o meno”, spiegano 118 associazioni in una lettera aperta, nel tentativo di proteggere l’AI Act dell'Ue

C’è una scappatoia nell’AI Act. Un loophole che potrebbe far deragliare, secondo alcune associazioni, l’intento iniziale della futura legge sull’intelligenza artificiale, e che permetterebbe ad aziende “senza scrupoli” di aggirare la regolamentazione. Approvata lo scorso 14 giugno al Parlamento europeo, l’AI Act è una delle prime proposte di regolamentazione sulle IA, che potrebbe diventare un notevole caso studio su come affrontare – in termini giuridici – l’impatto di questa nuova tecnologia sulla società.

Nella bozza iniziale dell’articolo 6 consegnata dalla Commissione europea, i sistemi di intelligenza artificiale ricevevano – in base a linee guida etiche sulla salute dei cittadini, su lavoro o accesso al welfare – potevano ricevere una classificazione di rischio “minimo”, “limitato”, “alto” o “inaccettabile”.  Ma ora, in un nuova bozza della legge, presentata dal Consiglio e dal Parlamento europeo, tale classificazione è delegata agli stessi sviluppatori dei sistemi, che possono decidere, soggettivamente, se il modello di intelligenza artificiale da loro realizzato è ad “alto rischio” o meno.

“La stessa azienda a cui si applica la legge ha ora il potere di decidere unilateralmente se debba essere applicata o meno”, recita la lettera aperta firmata da 118 associazioni tra cui Access Now, BEUC – The European Consumer Organisation, European Digital Rights (EDRi) ed Amnesty International.

“Chiediamo di reintegrare la versione originale della Commissione europea: se questi cambiamenti non vengono fermati, ci sarà incertezza legale su quali siano i sistemi ad ‘alto rischio’, frammentazione del mercato unico sull’interpretazione, difficoltà da parte degli stati membri nel far rispettare il regolamento, e permetterebbe a sviluppatori senza scrupoli di aggirare i requisiti minimi della legge”, conclude la lettera.

IA e diritto d’autore

L’ambiziosa legge era in lavorazione da quasi due anni, come ha raccontato a The Hollywood Reporter Roma l’eurodeputato del Partito democratico Brando Benifei. Un processo cominciato prima del boom mediatico delle intelligenze artificiali, avvenuto grazie all’uscita di software di IA generativa come Chat GPT e MidJourney. Una congiuntura che ha costretto i legislatori a intervenire per inserire anche le istanze di autori e creativi nella protezione del diritto d’autore.

“Nel testo originario non si parlava ancora di IA generativa”, ha spiegato Benifei a THR Roma. E continua: “Abbiamo inserito successivamente un passaggio sulla necessità di elencare i contenuti protetti da copyright che vengono usati per allenare le intelligenze artificiali. Ma il principio è chiaro, noi non cambiamo la normativa copyright. Piuttosto, forniamo uno strumento di trasparenza: gli autori, in presenza di una violazione, possono far valere i propri diritti”

Il documento – ha confermato l’eurodeputato dem – è stato allineato ai requisiti del GDPR (Il regolamento sulla protezione dei dati). Definendo tale applicazione come “molto rigorosa”. La regolamentazione, stando a quanto affermato da Benifei, potrebbe entrare in vigore “entro la fine dell’anno”.