L'AI Act in poche parole
Cos'è l’AI Act?
Negli scorsi articoli* abbiamo iniziato a raccontare alcuni concetti dietro l’intelligenza artificiale moderna. In questi mesi si sta parlando molto di AI Act, in particolare dopo l’approvazione del Parlamento europeo, ma cosa è e a cosa serve l’AI Act?
L'AI Act è una legislazione introdotta dall'Unione Europea per regolamentare l’AI nei suoi stati membri. L'obiettivo è garantire che le tecnologie IA siano sicure, rispettino i diritti fondamentali e promuovano la fiducia tra gli utenti. Questa regolamentazione rappresenta un passo significativo verso la creazione di un quadro giuridico armonizzato per l'IA in Europa, con il potenziale di diventare uno standard globale.
L'AI Act classifica i sistemi IA
L'AI Act classifica i sistemi IA in base al rischio che rappresentano per gli utenti e la società:
- sistemi IA a rischio inaccettabile: sono vietati a causa del loro potenziale danno. Esempi includono l'IA per il punteggio sociale e quelli che manipolano il comportamento umano sfruttando le vulnerabilità dello stesso.
- sistemi IA ad alto rischio: sistemi soggetti a requisiti rigorosi. Gli esempi includono tecnologie utilizzate nelle infrastrutture critiche (come l'elettricità e la fornitura di acqua), valutazioni educative, processi occupazionali, applicazione della legge e servizi essenziali come banche e assicurazioni. I fornitori di questi sistemi devono implementare pratiche di gestione del rischio e governance dei dati, garantire accuratezza e sicurezza informatica e mantenere una documentazione dettagliata per dimostrare la conformità.
- sistemi IA a rischio limitato: hanno obblighi di trasparenza meno rigorosi. Ad esempio, i sistemi IA che interagiscono direttamente con i consumatori devono informare gli utenti che stanno interagendo con un'IA.
- sistemi IA a rischio minimo: non sono soggetti a requisiti specifici secondo l'AI Act e possono essere utilizzati con una supervisione regolamentare minima.
Esistono particolari disposizioni per i sistemi IA ad alto rischio, che devono rispettare diverse pratiche obbligatorie:
- gestione del rischio: implementare un sistema di gestione del rischio completo durante tutto il ciclo di vita del sistema IA;
- governance dei dati: assicurare che i dataset per l'addestramento, la validazione e il testing siano rappresentativi, rilevanti e privi di errori;
- trasparenza: fornire una documentazione chiara e istruzioni per l'uso, consentendo la supervisione umana e la conformità;
- accuratezza e robustezza: progettare sistemi per soddisfare alti standard di accuratezza, robustezza e sicurezza informatica.
Governance e applicazione dell'AI Act
L'AI Act istituisce l'Ufficio Europeo per l'IA per supervisionare la sua implementazione e applicazione. Questo ente garantirà la conformità, gestirà i reclami e fornirà linee guida sui rischi legati all'IA. Le violazioni dell'AI Act possono comportare multe severe, che vanno dall'1,5% al 7% del fatturato globale dell'azienda, a seconda della gravità e della natura della non conformità.
Sono stabilite delle responsabilità specifiche lungo tutta la filiera di commercializzazione e messa in servizio dell'IA. I fornitori di sistemi basati su IA o di componenti si sistemi di IA hanno il compito di assicurare la conformità ai criteri stabiliti dall'AI Act. Importatori e distributori sono incaricati a loro volta di assicurare che i sistemi IA che entrano nell'UE rispettino l'AI Act. Le aziende, sia pubbliche che private, nonché i professionisti che utilizzano i sistemi di IA hanno a loro volta l’onere di utilizzare suddetti sistemi in modo responsabile e conforme alle normative e alle indicazioni condivise dai fornitori, monitorando l'uso effettivo per prevenire rischi.
IA Generativa
L'atto affronta anche l'IA Generativa, che include modelli IA potenti capaci di eseguire una vasta gamma di compiti (ad esempio, GPT di OpenAI). Questi modelli devono rispettare requisiti aggiuntivi, come fornire documentazione dettagliata sui dati di addestramento e garantire il rispetto delle leggi sul copyright dell'UE. Le applicazioni ad alto rischio dei modelli di IA Generativa sono soggette alle stesse rigorose regolamentazioni degli altri sistemi IA ad alto rischio.
UE leader mondiale nella regolamentazione dell'IA
Introducendo l'AI Act, l'UE mira a diventare leader mondiale nella regolamentazione dell'IA, come ha fatto con il il Data Act o il Regolamento Generale sulla Protezione dei Dati (GDPR). L'atto non solo mira a proteggere i cittadini dell'UE, ma influenza anche gli standard globali, poiché le aziende di tutto il mondo dovranno conformarsi a queste normative per operare nel mercato UE.
L’AI Act lascia domande aperte su come assicurare concretamente l'affidabilità dell’IA, quali le metodologie di implementazione e i criteri di valutazione. Senza specifiche tecniche, le disposizioni dell'AI Act generano incertezza sulle procedure che sviluppatori e adottanti dovrebbero seguire per conformarsi. Per questo è necessario formalizzare degli standard.
Per far fronte a questo la Commissione UE ha emesso una richiesta di standardizzazione al "Comitato Europeo di Normazione" (CEN) e al "Comitato Elettrotecnico Europeo per la Normazione" (CENELEC). Questi forniranno linee guida tecniche all'industria dell'UE per conformarsi ai requisiti dei sistemi AI ad alto rischio e includeranno, tra gli altri, standard per accuratezza, robustezza, trasparenza, cybersicurezza, valutazione della conformità e gestione del rischio.
L'AI Act rappresenta uno sforzo completo da parte dell'UE per regolamentare l'IA in modo che bilanci innovazione con sicurezza e considerazioni etiche. Stabilisce linee guida chiare e misure di responsabilità per i fornitori di IA, garantendo che le tecnologie IA beneficino la società riducendo al minimo i potenziali danni. Questa legislazione fondamentale è destinata a plasmare il futuro della regolamentazione dell'IA a livello globale, promuovendo un ecosistema IA più sicuro e affidabile.
* articoli già usciti:
- https://life.unige.it/intelligenza-artificiale-uomo
- https://life.unige.it/intelligenza-artificiale-comprensione-correlazione
- https://life.unige.it/la-scorciatoia-delle-AI
- https://life.unige.it/luci-e-ombre-intelligenza-artificiale
- https://life.unige.it/IA-disparita-e-disoccupazione
- https://life.unige.it/intelligenza-artificiale-allineamento-esseri-umani
- https://life.unige.it/domande-intelligenza-artificiale
- https://life.unige.it/IA-autodidatte
Luca Oneto è docente dell’Università di Genova con specializzazione in intelligenza artificiale; è stato recentemente ascoltato in una audizione alla Camera dei Deputati con un intervento dal titolo: "Indagine conoscitiva sull’intelligenza artificiale: opportunità e rischi per il sistema produttivo italiano".
Luca Oneto è vincitore nel 2019 del Premio Somalvico come Miglior giovane ricercatore italiano in intelligenza artificiale e di due Amazon machine learning research award.