Ai Act: il parlamento europeo approva la prima legge per regolamentare le intelligenze artificiali

In una decisione storica, l'Ue propone una serie di leggi basate sul rischio, classificando l'uso di questi strumenti a seconda del danno potenziale che possono causare. Non solo: dovranno rispettare anche la legge europea sul diritto d'autore

L’Unione Europea ha fatto la storia mercoledì 13 marzo, approvando la prima legge al mondo che regolamenta l’intelligenza artificiale. Questa legge dovrebbe entrare ufficialmente in vigore tra maggio e giugno, in attesa dell’approvazione formale da parte dei paesi membri dell’Ue, e le disposizioni entreranno a loro volta in vigore sei mesi dopo la pubblicazione delle norme nei rispettivi ordinamenti.

Le norme per i sistemi di intelligenza artificiale di uso generale come ChatGPT inizieranno a essere applicate un anno dopo l’entrata in vigore. L’intera gamma di provvedimenti dovrebbe entrare in vigore dalla metà del 2026.

L’Ue ha adottato un approccio alla regolamentazione dell’IA basato sul rischio, classificando l’uso dell’intelligenza artificiale in base al danno potenziale che potrebbe causare. La legge vieta i sistemi di IA che comportano “rischi inaccettabili”, tra cui l’uso di dati biometrici per rilevare l’etnia o l’orientamento sessuale di una persona.

Alto rischio e basso rischio

Le applicazioni ad alto rischio, tra cui l’uso dell’IA nelle assunzioni o nell’applicazione della legge, saranno regolamentate in modo più stringente, con gli sviluppatori che dovranno dimostrare che i loro modelli sono sicuri e trasparenti e rispettano le norme sulla privacy.

Per gli strumenti di IA a basso rischio, la regolamentazione sarà minima o nulla, ma gli sviluppatori dovranno comunque etichettare come manipolate artificialmente le immagini, i video o gli audio di persone, luoghi o eventi esistenti generati dall’IA. La legge si applica ai modelli che operano nell’Ue e qualsiasi azienda che violi le regole rischia una multa fino al 7% dei suoi profitti annuali globali.

Per quanto riguarda l’applicazione, ogni paese dell’UE istituirà un proprio organo di vigilanza sull’Intelligenza artificiale e i cittadini potranno presentare reclami se ritengono che i loro diritti siano stati violati. Bruxelles creerà un ufficio autonomo per l’IA con il compito di far rispettare e supervisionare la legge.

Intelligenza artificiale e “rischi sistemici”

I modelli di IA più grandi e potenti, che secondo l’Ue presentano “rischi sistemici”, saranno sottoposti a un controllo supplementare, tra cui GPT4 di OpenAI e Gemini di Google. Le aziende che forniscono questi sistemi dovranno valutare e mitigare i rischi, mettere in atto misure di sicurezza informatica, segnalare eventuali incidenti gravi dovuti ai loro sistemi e rivelare la quantità di energia utilizzata dai loro modelli.

Tutti i sistemi di IA generici dovranno redigere una politica che dimostri che i contenuti utilizzati per la formazione dei loro modelli rispettano la legge europea sul copyright.

Come altre normative digitali – come il Digital Services Act dello scorso anno, che ha preso di mira gli abusi sui social media, o il Digital Markets Act, entrato in vigore il 7 marzo con l’obiettivo di combattere la posizione dominante sul mercato da parte dei cosiddetti “gatekeeper” digitali – la legge sull’IA dell’Unione mira a diventare la legislazione di default a livello globale. Leggi simili sono in arrivo in paesi come il Brasile e il Giappone.

In ottobre, il presidente degli Stati Uniti Joe Biden ha firmato un ordine esecutivo sull’IA che dovrebbe essere supportato da leggi e accordi globali.

Traduzione di Pietro Cecioni