L'intelligenza artificiale passa per l'Università di Genova, un convegno tra storia e prospettive

Lo sviluppo dell'intelligenza artificiale è passato e passa anche per l'Università di Genova. A sottolinearlo è stato il convegno organizzato dal Collegio degli Emeriti dell'Ateneo, che ha visto la sala di Banca Passadore gremita di partecipanti. Al centro dell'incontro i progressi compiuti dalla ricerca che dagli anni Ottanta a oggi ha visto grandi nomi di matematici, fisici, ingegneri informatici passare attraverso i dipartimenti di UniGe, tra cui Vincent Torre o Antonio Borsellino, partendo dal progetto pionieristico PAPA (programmatore automatico e analizzatore di probabilità) e arrivando oggi a costruire MaLGa – machine learning Genoa center, un centro che mette insieme informatica e matematica. Si è discusso anche dei traguardi raggiunti dai LLM, i large language models, e delle possibili future applicazioni, della giurisprudenza e delle norme che dovranno regolare l'applicazione dell'AI, delle opportunità per il territorio ligure.

Ad aprire l'evento i saluti istituzionali del presidente Augusto Passadore che ha sottolineato come «nei mercati finanziari si sia formata una grande euforia riguardo all'intelligenza artificiale, tanto che si parla già di bolla speculativa. Accanto alle opportunità di business, non bisogna però sottovalutare i rischi che dovranno essere prontamente normati: si va dall'occupazione al diritto d'autore e alla proprietà intellettuale». E per questo motivo il rettore Federico Delfino ha fissato gli obbiettivi principali: «Dovremo iniziare a ragionare in ambito didattico dell'AI. Dobbiamo sperimentare, la ricerca potrà anche portare dei risultati negativi, ma dobbiamo sviluppare progetti pilota per applicare questo nuovo strumento e trarne benefici in tutti gli ambiti in cui può essere utile».

Presenti anche Lorenza Rosso, assessore alle politiche sociali del Comune di Genova, e Simona Ferro, assessore alle pari opportunità di Regione Liguria. Ma non ha voluto perdersi l'evento nemmeno il sindaco Marco Bucci che nel corso del pomeriggio ha portato la sua visione ottimistica sull'AI: «Non dobbiamo avere paura, è un mezzo per ottenere una migliore qualità di vita e dominarla. Dobbiamo cavalcare l'onda e cogliere le opportunità di business. Io già immagino le prime navi senza equipaggio entrare nel porto di Genova. E tutta questa tecnologia creerà nuovi posti di lavoro, non ne toglierà. A Genova l'anno scorso abbiamo avuto 4500 posti di lavoro non coperti perché mancavano le professionalità: dobbiamo farci trovare preparati per i mestieri del futuro».

Relatori della prima parte del convegno sono stati i professori Giovanni Adorni e Alessandro Verri che hanno ripercorso le tappe dell'Università di Genova negli ultimi 20 anni, dimostrando come l'ateneo sia sempre stato all'avanguardia e abbia lavorato in rete con realtà d'eccezione quali il MIT – Massachusetts Institute of Technology di Boston. E proprio dal MIT è arrivato il professore Tomaso Poggio, genovese, che ha tratteggiato quali sono stati i risultati del machine learning e al tempo stesso i pericoli più grandi per i prossimi mesi. Tra questi, c'è la diffusione di fake news e non è chiaro come togliere contenuti falsi già immessi nel database «senza dover azzerare tutto il lavoro di training già fatto in passato». Nel frattempo al MIT di Boston, assieme alle università e alle aziende come Google Deepmind, «si sta facendo ricerca per analizzare se ci siano dei "piani nascosti" in questi modelli di AI, si cerca di capire quali possano essere gli aspetti più pericolosi e correggerli».

Tutto questo però richiede anche normative chiare. L'Europa a marzo 2024 ha approvato l'AI act. I primi divieti potrebbero entrare in vigore già entro la fine dell'anno.

Ma il panorama è vasto: tutela della privacy, tutela dei dati sanitari, rischio di diffamazione tramite la diffusione di fake news, profilazione delle preferenze dei consumatori, diritto a un'informazione corretta, diritto a preservare l'integrità fisica, diritto d'autore, diritto dei lavoratori, sicurezza, investimenti finanziari. Sono tantissimi gli ambiti che devono essere tutelati, così come deve essere normata la responsabilità degli errori commessi anche attraverso l'utilizzo dell'intelligenza artificiale. Il professor Guido Alpa, che di recente ha preso parte al "G7 dell'avvocatura", ha discusso anche problemi di carattere giuridico e morale, come lo scenario in cui una macchina a guida autonoma potrebbe dover fare una scelta «se le viene impedito di proseguire per la sua strada e qualsiasi direzione potrebbe fare del male a un essere umano o a un altro».

A chiudere la giornata, una tavola rotonda, moderata dal giornalista Alberto Magnani de Il Sole 24 Ore, che ha riunito Camera di Commercio, Confindustria, IIT, Leonardo, Liguria Digitale e UniGe: insieme si sono analizzate le possibilità per il territorio ligure di applicazione dell'intelligenza artificiale.

di Silvia Isola