Uspi informa…AI Act: ok definitivo del Consiglio Ue, applicabile tra 2 anni

Nel marzo scorso l’AI Act era stato approvato in via definitiva dal Parlamento Ue. Ora arriva anche il via libera ufficiale del Consiglio Ue il quale lo ha approvato all’unanimità. Gradualmente, quindi, entrerà in vigore la legge europea sull’Intelligenza Artificiale (IA) che disciplinerà lo sviluppo, l’immissione sul mercato e l’uso dei sistemi di IA nel Vecchio Continente.

L’AI Act, composto da 113 articoli e 12 allegati, regola lo sviluppo, la fornitura e l’uso di sistemi di IA in tutta Europa. Dalla definizione di “sistemi di AI” restano esclusi i software tradizionali più semplici e gli approcci di programmazione. È la prima iniziativa al mondo in materia.

Cosa prevede la norma 

L’AI Act impone maggiori misure di sicurezza a seconda del rischio che l’utilizzazione di un determinato sistema di IA comporta. Ad esempio, sono proibiti i sistemi di polizia predittiva e di social scoring e lo scraping di immagini facciali da internet per creare banche dati, perché considerati a rischio inaccettabile.

La legge, inoltre, prevede delle misure per favorire la conoscenza e la trasparenza degli algoritmi. In tal modo, immagini e testi di un’IA generativa devono essere contrassegnati in un formato leggibile dalla macchina e devono essere rilevabili come artificiali.

Gli algoritmi addestrati con una grande quantità di dati e in grado di svolgere molti compiti hanno obblighi specifici. Tra questi abbiamo l’attuazione di politiche che rispettino il diritto d’autore e la pubblicazione di report sui contenuti usati per addestrare l’algoritmo.

Inoltre, l’AI Act va incontro al progresso con diverse norme che prevedono misure innovative come le agevolazioni per PMI e startup e le regulatory sandbox (ambienti controllati dove sperimentare nuove tecnologie).

La novità è nel capitolo che contiene riferimenti all’AI generativa, inserito in corso d’opera con l’obiettivo di dare una prima risposta alla diffusione di sistemi come ChatGPT.
I modelli di AI per scopi generali (Gpai) che non presentano rischi sistemici saranno soggetti ad alcuni requisiti limitati, ad esempio in materia di trasparenza.

Quelli con rischi sistemici dovranno rispettare regole più severe, tra cui valutazione del modello, valutazione e mitigazione di rischi sistemici, protezione della sicurezza informatica.

A chi è rivolto l’AI Act?

La nuova legge riguarda tutte le aziende e gli enti pubblici che forniscono o utilizzano sistemi di IA in Europa o che utilizzano l’output del sistema in Ue. Ma si riferisce anche ad altri soggetti come importatori e distributori.

Il Regolamento, invece, non si applica ai sistemi di IA per scopi militari, di difesa o sicurezza nazionale, per finalità di ricerca scientifica e a quelli rilasciati con licenze free o open source.

Oltre a questi, sono esclusi anche le attività di ricerca, prova e sviluppo dell’IA e l’uso personale non professionale dei singoli individui.

Governance e sanzioni

Per quanto riguarda la governance, i soggetti coinvolti a livello Ue saranno la Commissione, il Comitato europeo per l’Intelligenza Artificiale (IA) e l’Ufficio per l’IA. 

Mentre ogni Paese avrà un’Autorità di controllo nazionale a cui potersi rivolgere. Oltre a ciò, saranno disponibili un forum consultivo e un gruppo di esperti scientifici indipendenti.

Dal punto di vista delle sanzioni, chi violerà il Regolamento rischia un’ammenda che può arrivare fino a 35 milioni di euro e al 7% del fatturato mondiale totale annuo dell’esercizio precedente (se superiore) per le imprese.

Tempistiche per l’entrata in vigore

Le nuove regole saranno applicabili a 2 anni dall’entrata in vigore, con l’eccezione dei divieti, che scatteranno dopo 6 mesi, dei controlli sui sistemi di AI per finalità generali, compresa la governance (12 mesi) e degli obblighi per i sistemi.

Stampa Articolo Stampa Articolo