L’Università di Genova è partner del progetto ELSA – European Lighthouse on Secure and Safe AI finanziato dall’Unione Europea con 7,5 milioni di euro, a cui si sommano 2,5 milioni di euro da Regno Unito e Svizzera. L’obiettivo del progetto è la creazione della più grande rete di eccellenza europea sull’intelligenza artificiale affidabile e sicura.
Una squadra di ricercatori del Dipartimento di informatica, bioingegneria, robotica e ingegneria dei sistemi – DIBRIS, coordinata da Luca Oneto insieme a Fabio Roli e Davide Anguita, tutti docenti UniGe di "Sistemi di elaborazione delle informazioni", è riuscita, in collaborazione con altri 26 centri di eccellenza europei guidati dal CISPA Helmholtz Center for Information Security - Saarbrücken (Germania), ad aggiudicarsi questo importante finanziamento che posiziona per la prima volta l’Università di Genova al centro di un'iniziativa europea sull’intelligenza artificiale affidabile e sicura.
L’intelligenza artificiale ha dimostrato di essere uno strumento con un enorme potenziale nel miglioramento della vita delle persone e nel favorire l’accelerazione del progresso scientifico e tecnologico.
Alcuni esempi dell’impatto che questa tecnologia ha, o avrà, sulle nostre vite sono:
Tuttavia, in parallelo ai benefici ottenuti con l’uso dell’intelligenza artificiale, sono emerse preoccupazioni per i possibili danni derivati dal suo utilizzo. Attraverso sistemi basati sull’intelligenza artificiale è potenzialmente possibile intaccare la privacy delle persone e già ora in alcuni casi sistemi di videosorveglianza e chatbots hanno mostrato comportamenti discriminatori nei confronti di gruppi di persone. I risultati della ricerca stanno inoltre mostrando che l’intelligenza artificiale può diventare l’anello debole della catena della sicurezza: è possibile, ad esempio, “avvelenare” un sistema di autenticazione, attraverso l’iniezione di pochi dati manipolati, fino a creare “porte di accesso” indesiderate che consentono furti d’identità digitale. In altri casi, servizi in cloud possono essere “clonati” attraverso l’intelligenza artificiale e malintenzionati possono riuscire a ricostruirne con grande precisione il funzionamento utilizzando poi tale conoscenza per attaccare i servizi stessi, trarne illeciti profitti o diffondere informazioni sensibili.
La sicurezza e la privacy non sono i soli problemi aperti della tecnologia dell’intelligenza artificiale: le nuove “reti neurali profonde” (deep networks) stanno rendendo i sistemi digitali sempre più delle “scatole nere”, sempre più utili ed autonome ma anche sempre più imperscrutabili. Non è raro ormai riscontrare come l’intelligenza artificiale sia in grado di risolvere problemi con la stessa capacità dell’essere umano o, addirittura in alcuni casi, superiore ma senza che si capiscano fino in fondo i meccanismi di elaborazione.
Per tutti questi motivi la ricerca europea ha individuato tra i propri obiettivi la necessità di investire e finanziare la ricerca con lo scopo di rendere l’intelligenza artificiale non solo utile ed efficace ma anche affidabile e sicura.
Il progetto ELSA nasce con l’obiettivo di riunire i ricercatori più brillanti in Europa che si occupano di rendere l’intelligenza artificiale più affidabile, creando una rete virtuale capace di far progredire e diffondere lo sviluppo di questa ricerca e gettare le basi peri un nuovo tipo di intelligenza artificiale capace di soddisfare almeno gli stessi requisiti legali ed etici che vengono richiesti all’intelligenza umana.
ELSA – European Lighthouse on Secure and Safe AI funded by the European Union. Views and opinions expressed are however those of the author(s) only and do not necessarily reflect those of the European Union. Neither the European Union nor the granting authority can be held responsible for them.