AI Act: la legge sull’intelligenza artificiale che divide aziende tecnologiche e Ong

"L'Europa si è posizionata come pioniera, comprendendo l'importanza del suo ruolo di definizione degli standard globali", ha dichiarato Thierry Breton, il commissario che ha contribuito a negoziare l'atto

Gli organi politici dell’unione europea hanno fatto la storia diventando il primo ente legislativo al mondo ad approvare una legge, l’AI Act, che regolamenta l’uso dell’intelligenza artificiale e pone dei paletti alle applicazioni commerciali e statali dell’intelligenza artificiale.

“L’Europa si è posizionata come pioniera, comprendendo l’importanza del suo ruolo di definizione degli standard globali”, ha dichiarato Thierry Breton, il commissario europeo che ha contribuito a negoziare l’accordo per l’approvazione della legge sull’intelligenza artificiale, passata dalla commissione europea, dal consiglio europeo e dal parlamento europeo venerdì 8 dicembre, dopo una maratona negoziale di 36 ore.

Definendo il voto “un momento storico”, la presidente della commissione europea Ursula Von der Leyen ha dichiarato che la legge sull’IA fornirà “certezza giuridica, aprirà la strada all’innovazione nel campo della tecnologia affidabile e darà un contributo sostanziale allo sviluppo di guardrail internazionali per l’IA”.

Che cos’è l’AI Act?

L’AI Act spera di diventare un punto di riferimento per i paesi di tutto il mondo che cercano di bilanciare le promesse e i rischi della tecnologia dell’intelligenza artificiale. La legislazione deve ancora ottenere l’approvazione finale del parlamento europeo e del consiglio prima di diventare legge. La votazione ufficiale avverrà prima delle elezioni parlamentari dell’UE, che si terranno all’inizio di giugno 2024. Se la legge dovesse essere approvata in tempo, alcune sue parti potrebbero entrare in vigore a partire dall’anno prossimo, mentre le restanti entrerebbero in vigore nel 2025 e nel 2026.

Per allora, notano i critici, molte delle tecnologie che la legge sull’IA spera di regolamentare potrebbero essere cambiate in modo sostanziale. Una prima bozza dell’AI Act è stata rilasciata nel 2021, ma il lancio di ChatGPT e di altri modelli di AI cosiddetti general-purpose hanno costretto a una profonda riscrittura della legislazione per tenere conto delle più recenti scoperte tecnologiche.

Durante i recenti scioperi degli scrittori e attori, le trattative sull’IA si sono concentrate su questioni quali la protezione dell’immagine degli attori e la garanzia (per gli scrittori e per gli altri creativi) che i sistemi di intelligenza artificiale non vengano mai utilizzati per sostituire i lavoratori dello spettacolo. La legislazione dell’UE, invece, ha una portata molto più ampia e riguarda l’utilizzo dell’IA da parte di aziende e governi, compresi settori cruciali come le forze dell’ordine e l’energia.

Tra le disposizioni principali vi sono le restrizioni ai software di riconoscimento facciale da parte della polizia e dei governi, al di fuori di alcune esenzioni per la sicurezza nazionale, come per esempio l’uso della tecnologia per prevenire attacchi terroristici o per localizzare vittime o sospetti di reati gravi. L’AI Act introduce anche nuovi requisiti di trasparenza per i produttori dei più grandi sistemi di IA di uso generale, come quelli che alimentano ChatGPT.

Favorevoli e contrari

Si prevede che le aziende interessate dall’AI Act contesteranno alcune delle sue disposizioni in tribunale, il che potrebbe ritardare ulteriormente l’attuazione in tutto il continente. In un post successivo al voto di venerdì 8, Barry Scannell, esperto legale di IA, ha osservato che i “requisiti di trasparenza rafforzati” potrebbero mettere in discussione “la protezione della proprietà intellettuale”, richiedendo “importanti cambiamenti strategici” da parte delle aziende che fanno uso di sistemi di intelligenza artificiale.

In una dichiarazione rilasciata sabato 9 dicembre, la Computer and communications industry association in Europe  (un gruppo di lobby aziendale che rappresenta le principali società di servizi internet, software e telecomunicazioni, tra cui Amazon, Google e Apple), ha definito la proposta dell’unione europea “incompleta”. A suo avviso, questa potrebbe regolamentare eccessivamente molti aspetti dell’intelligenza artificiale e rallentare l’innovazione tecnologica nel continente. “Questo potrebbe portare a un esodo di aziende e talenti europei dell’IA in cerca di crescita altrove”, ha affermato l’associazione.

Sindacati e Ong, al contrario, sostengono che la nuova legislazione non regolamenti abbastanza. In particolare per quanto riguarda l’uso della tecnologia di riconoscimento facciale assistita dall’IA da parte di governi e polizia. “Le tre istituzioni europee – commissione, consiglio e parlamento – hanno di fatto dato il via libera a una sorveglianza digitale distopica nei 27 Stati membri dell’UE, creando un precedente devastante a livello globale per quanto riguarda la regolamentazione dell’intelligenza artificiale (IA)”, ha dichiarato Mher Hakobyan, consulente per l’IA di Amnesty International.

“Non garantire un divieto totale sul riconoscimento facciale rappresenta una mancata opportunità di fermare e prevenire danni colossali ai diritti umani, agli spazi pubblici e allo stato di diritto, già minacciati in tutta l’unione europea”.