Quando l'Intelligenza Artificiale incontra la “Digital Forensics”, l'etica e la legge

L'etica e il diritto sono al centro delle società umane sin dai loro albori e le loro relazioni sono studiate da secoli. Solo recentemente, però, abbiamo iniziato a prendere in considerazione le relazioni che intercorrono tra etica e diritto da una parte, ed Intelligenza Artificiale (IA) dall'altra. Negli ultimi anni molte iniziative, dalla definizione dei principi per una IA benefica emersi durante la Asilomar Conference del 2017 agli “Orientamenti etici per un'IA affidabile” redatto dal gruppo indipendente di esperti ad alto livello sull'intelligenza artificiale istituito dalla CE nel giugno 2018, hanno affrontato la necessità di garantire uno sviluppo ed un ultilizzo utilizzo etico dell'IA.
Tuttavia, la applicazione della IA al dominio giudiziario solleva ancora molte preoccupazioni, e a ragione.

Le questioni aperte

La Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi del 2018 affronta alcuni problemi, ma molti altri ne rimangono: si può continuare a usare un sistema di apprendimento automatico addestrato su dati che, per volontà dei proprietari, non possono più essere utilizzati? Come garantire che un sistema che apprende da dati di procedimenti giudiziari passati, non apprenda anche gli umani preconcetti insiti nei dati stessi? Le tecnologie che guidano la IA sono le stesse in tutto il mondo, ma la legge e l'etica cambiano profondamente da paese a paese: come armonizzare la “globalizzazione” tecnologica e l'estrema specificità della legge e dell'etica? Come utilizzare in modo corretto gli strumenti a supporto della Digital Forensics (DF, "scienza digitale forense" in italiano), sempre più spesso basati su IA?

Locandina dell'evento DigForEthics

Un evento per mettere a fuoco le criticità

Insieme al collega Juan Carlos NIEVES dell'Università di Umeå, Svezia, ho posto queste e molte altre domande a giudici, avvocati, filosofi, esperti di Digital Forensics, di Intelligenza Artificiale, di etica e di “Data Privacy” durante l'evento “DigForEthics” svolto virtualmente il 28 e 29 gennaio 2021 presso l'Università di Genova.

DigForEthics è uno dei risultati della COST Action finanziata dall'UE “DIGital FORensics: evidence Analysis via intelligent Systems and Practices" (DigForASP). La rete DigForASP esplora il potenziale dell'applicazione dell'Intelligenza Artificiale e del Ragionamento Automatizzato nel campo della Digital Forensics per creare sinergie tra essi.

Logo DigForASP

DigForEthics ha attratto più di 140 partecipanti registrati con un picco di 70 partecipanti online contemporaneamente.

Tra i relatori del primo giorno, Virginia Dignum dell'Università di Umeå, Svezia, ha mostrato come passare dai principi all'azione nell'implementazione di un'IA responsabile. Carles Sierra (IIIA-CSC, Spagna) ha condiviso la sua visione sull'IA che può consentire alle comunità umane di controllare il  software dedicato all'interazione, invece che esserne controllati. Il giudice italiano Amedeo Santosuosso ha sottolineato che quando si parla di rischi e diritti nell'uso dell'IA, servono metodi per misurarli. Vicenç Torra dell'Università di Umeå, Svezia, ha presentato meccanismi di protezione dei dati che permettono di raggiungere un buon compromesso tra rischio di divulgazione e utilità dei dati. È seguita una tavola rotonda con questi esperti, che ha coinvolto anche Hugh Lawson-Tancred di Birkbeck, University of London, UK.

Nel secondo giorno la discussione si è concentrata maggiormente sugli argomenti trattati dalla rete DigForASP: Stefania Costantini dell'Università dell'Aquila ha illustrato come sfruttare approcci basati sulla logica nei campi legale e di digital forensics mentre Francesca Alessandra Lisi dell'Università di Bari ha condiviso con il pubblico alcuni risultati recenti nell'ambito della IA affidabile, con particolare attenzione alla dimensione di genere. David Billard dell'Università di Scienze Applicate e Arti, Ginevra, Svizzera, ha sottolineato le principali sfide nell'uso dell'anonimizzazione dei dati per proteggere la privacy delle persone nelle indagini penali laddove si usino strumenti basati sulla IA e Mattia Epifani, CEO di Reality Net System Solutions e laureato presso l'Università di Genova, ha mostrato come gli strumenti commerciali di Digital Forensics che utilizza nella sua attività quotidiana, incorporino l'IA. L'ultimo intervento è stato tenuto da due avvocati, Andrea Stanchi e Francesco Pedroni, dello Studio Legale Stanchi di Milano. Supportati dall'assistente AI Marshall, si sono chiesti: "lo Statuto dei Diritti dei Lavoratori ha qualcosa da insegnare?"

L'evento online

La nascita di una comunità

Il livello della discussione è stato molto alto e conferma che eventi in cui esperti di diverse discipline si siedono e discutono non solo problemi generali, ma anche problemi tecnici focalizzati e specifici, sono estremamente necessari.

Mentre alcune domande, ad esempio quale tra i sette principi individuati dagli “Orientamenti etici per un'IA affidabile” sia più importante, hanno trovato una risposta - anche se molto diversa in base alla sensibilità e alla formazione dei relatori - nell'ambito dell'evento, altre domande hanno generato una discussione interessante e vivace ma, per la loro delicatezza, restano per ora senza risposta.

Sono una scienziata e questa conclusione, più che prevedibile in un evento di soli due giorni su temi così complessi, rappresenta una sfida e uno stimolo: sto già lavorando all'organizzazione di un DigForEthics#2, con il supporto della rete DigForASP e della comunità che si è creata attorno alla prima edizione. Una comunità eterogenea, ma accomunata dall'inesauribile voglia di risposte!


DigForEthics è stato organizzato da COST Action DigForASP

Foto di copertina: Designed by iuriimotov / Freepik e rielaborata dalla redazione.

di Viviana Mascardi