Intelligenza artificiale, l’Italia approva prima bozza di legge. Carcere fino a cinque anni per “danni ingiusti”

Investimento di un miliardo di euro nel settore, filigrana per riconoscere materiali generati o manipolati dagli algoritmi, e reclusione in caso di danni. Il Cdm: "Si stabilisce che l'utilizzo dell'intelligenza artificiale non deve pregiudicare la vita democratica del paese e delle istituzioni"

L’Italia ha un disegno di legge sull’intelligenza artificiale. È stato approvato ieri, 23 aprile, durante l’ultimo Consiglio dei ministri, e stabilisce regole all’utilizzo dell’IA nella sanità, nel lavoro, nella pubblica amministrazione, nell’attività giudiziaria e sul diritto d’autore.

La bozza, oltre a proporre un investimento nel settore IA pari a un miliardo di euro, stabilisce che il contenuto realizzato attraverso sistemi di intelligenza artificiale (foto, testo, video e audio) deve essere riconoscibile tramite filigrana, esplicitando chiaramente che il materiale ha subito anche solo piccole alterazioni attraverso l’IA. Sul lato penale, il testo approvato prevede da uno a cinque anni di reclusione per la diffusione di contenuti generati attraverso algoritmi da cui derivano “danni ingiusti”.

Nel testo è sottolineato l’obbligo di questi sistemi al rispetto dei diritti fondamentali e delle libertà dell’ordinamento italiano ed europeo. “Si stabilisce che l’utilizzo dell’intelligenza artificiale non deve pregiudicare la vita democratica del paese e delle istituzioni”, recita il comunicato del Cdm.

IA, lavoro e sanità

In materia di sanità, l’uso dell’intelligenza artificiale non può restringere l’accesso alle prestazioni sanitarie. Sul lavoro, l’IA è utilizzabile per migliorare le condizioni, tutelare integrità dei lavoratori sul principio di equità e non discriminazione, accrescere produttività e qualità delle prestazioni lavorative. Si specifica, altresì, che l’integrazione di tali sistemi nell’organizzazione o nella gestione del rapporto di lavoro non può essere discriminatorio, in nessun caso.

Nel testo si parla anche di “strategia nazionale” sull’intelligenza artificiale, con l’istituzione di autorità di controllo affidate all’Agenzia per l’Italia digitale (AgID) e Agenzia per la cybersicurezza nazionale (Acn). Comprese anche misure sul “rientro dei cervelli”: aver svolto attività nell’ambito delle intelligenze artificiali entra tra i requisiti per ottenere agevolazioni.

Esentate dal provvedimento le possibili applicazioni dell’IA in ambito di sicurezza nazionale, cybersicurezza nazionale e difesa svolte dalle forze armate e di polizia.

Italia, Europa

Il disegno di legge, che ora comincerà il suo percorso in Senato e Camera, arriva dopo la mossa storica dell’Unione europea. Lo scorso 13 marzo, l’europarlamento ha infatti approvato il primo pacchetto di regolamentazioni in materia di intelligenza artificiale, un insieme di norme che entrerà completamente in vigore entro metà del 2026.

L’AI Act, questo il nome della regolamentazione, analizza le intelligenze artificiali con un punto di vista più sistemico. Si tratta infatti di una serie di leggi basate sul rischio dei modelli di IA (da “basso rischio” a “rischio sistemico”, come GPT4 di OpenAI e Gemini di Google), classificando questi strumenti in base al danno potenziale che potrebbero causare. E con la messa al bando di formule che comportano “rischi inaccettabili”.

L’eurodeputato del Partito democratico Brando Benifei, promotore dell’Ai Act nelle sedi europee, ha dichiarato a The Hollywood Reporter Roma che regolamentare l’intelligenza artificiale è “una questione di democrazia”, e che spera nell’effetto Bruxelles, cioè un’influenza del regolamento nel comportamento degli sviluppatori di IA e nelle scelte normative degli altri paesi del mondo.