Educare gli algoritmi

Il gruppo di ricerca

Il focus primario del gruppo di Intelligenza Artificiale Applicata che coordino, e a cui appartengo da più di 10 anni, è la ricerca di base sull’Intelligenza Artificiale con l’obiettivo di rendere fruibili all’industria le più recenti scoperte scientifiche e tecnologie attraverso la formazione di giovani talenti, il trasferimento tecnologico, e l’incubazione di spin-off. 

Il nostro gruppo si compone di studenti, docenti e ricercatori che hanno, con diverse proporzioni, forti legami con industrie nazionali e internazionali (Hitachi Rail STS e Amazon) e sviluppano progetti di ricerca, principalmente nell’ambito Europeo (Horizon Europe). 

Inoltre, il gruppo ha forti legami con diversi centri di ricerca nazionali (Istituto Italiano di Tecnologia, Università della Calabria, e Università di Padova) e internazionali (Università di Costanza in Germania, Università di Strathclyde in UK e NTU a Singapore). 

La ricerca è stata sempre focalizzata sulla creazione di modelli predittivi “affidabili” sfruttando dati storici, attraverso tecnologie di Data Mining e Machine Learning, ed esperienza sul problema: lo scopo finale di questi modelli è quello di migliorare l'efficienza e l’automazione dei processi di decisione in ambienti complessi. 

 

Un esempio di applicazione dei modelli predittivi 

Un esempio che viene dagli USA è quello di utilizzare i dati storici di recidiva di reato di persone incarcerate e poi rilasciate per prevedere la probabilità di recidive per nuove scarcerazioni. In quel caso era necessario fare questa previsione in base al numero di condanne precedenti, all’età, al sesso, all’etnia e altre caratteristiche della persona.

Nell’esempio precedente conoscere le probabilità di recidiva è ovviamente fondamentale per sociologi, psicologi, avvocati, o decisori in generale per capire che regole costruire su questa probabilità di recidiva per decidere se rilasciare oppure no un condannato. 
Ovviamente, per poter utilizzare un modello di questo genere, occorre che il modello predittivo sia affidabile.  

L’importanza del concetto di “affidabilità” 

La parola “affidabile”, nel campo dell’Intelligenza Artificiale, ha avuto una storia lunga e complessa. Il primo concetto di affidabilità è stato, per così dire, il più intuitivo, ossia fare in modo di garantire, in senso statistico, le performance in termini di accuratezza del modello previsionale.
Detto in parole semplici si garantisce un livello minimo di performance del modello stesso quando sarà utilizzato in produzione.
Su questo ho anche scritto un libro.

copertina del libro
https://www.springer.com/gp/book/9783030243586

Più recentemente, con l’avvento degli algoritmi più evoluti – i cosiddetti algoritmi di deep learning –, il problema delle performance è diventato meno importante in quanto questi algoritmi sono oramai in grado di superare le performance umane.
Un esempio che ha fatto scalpore è stato l’algoritmo che ha battuto il campione mondiale di Go.

Per questo ci si è iniziati a fare una semplice domanda: se le macchine superano ormai le capacità umane emulandole, probabilmente le macchine rischiano anche di emulare i pregiudizi e i difetti dell’uomo e come l’uomo le macchine potrebbero essere indotte in errore.
Quindi l’affidabilità ha iniziato a prendere un altro significato. Possono le macchine garantire non solo performance tecniche (accuratezza, velocità, utilizzo di risorse) ma anche umane (equità, privacy, robustezza e interpretabilità)?
Anche l’Unione Europea ha lanciato un’azione coordinata sul tema. 

Cosa si intende con “macchine più umane”? 

Partiamo dall’esempio fatto poco fa sulla recidiva. Valutando le risposte dell'algoritmo si nota come lo stesso tende a predire rischio alto maggiormente per gli afroamericani. Questo è un preconcetto in quanto, come si vede dal grafico, la percentuale di afroamericani che hanno poi effettivamente reiterato il reato è uguale a quella degli altri. Questo significa che la macchina ha imparato non solo a predire ma ha anche imparato il pregiudizio presente nei dati storici. 

 Un altro esempio che ha fatto scalpore attraverso tutti i mezzi di stampa è il chatbot (un programma informatico capace di interagire vocalmente con l’utente) automatico addestrato da Microsoft sulle news di Twitter chiamato TAI.
Risultato? Un razzista!



Una cosa simile è successa anche ad Amazon, Google, IBM per il loro riconoscitore di volti che tende a funzionare peggio, e quindi a discriminare donne afroamericane (e ironicamente la ricercatrice in figura è colei che ha scoperto questa polarizzazione) e il cui uso per attività della polizia è stato quindi bannato.