Alcune delle tante domande sull’Intelligenza Artificiale

Le macchine possono pensare?

Ognuno di noi, in base alla propria formazione, esperienza di vita e sensibilità, si pone diverse domande sull'Intelligenza Artificiale. Nelle puntate precedenti*, abbiamo esplorato i concetti fondamentali dell'Intelligenza Artificiale, includendo anche una prospettiva storica. Questo ci ha permesso di comprendere le origini e gli sviluppi di questa disciplina fino ai giorni nostri.

Esplorando o discutendo su questi argomenti, emerge inevitabilmente una domanda fondamentale, che può essere espressa così: “Le macchine possono pensare?” o alternativamente “Possono le macchine essere coscienti?”. Questo interrogativo, affascinante e al tempo stesso inquietante, fu sollevato chiaramente per la prima volta da Alan Turing nel 1950

Persona spaventata da un futuro distopico
Persona spaventata da un futuro distopico - immagine generata da una AI

Esplorazioni umane

Da centinaia, se non migliaia di anni, l'essere umano ha sempre cercato di espandere le proprie capacità pratiche, inizialmente attraverso l'uso di strumenti e successivamente mediante l'impiego di macchine, e di accrescere la propria conoscenza, dapprima con le scienze empiriche e poi, sempre più, con quelle teoriche. Questo impegno si è esteso dall'esplorazione dell'infinitamente piccolo all'infinitamente grande. Più recentemente, abbiamo tentato di spingerci ancora oltre, cercando di comprendere la natura dell'uomo stesso, fino al punto di tentare di ricreare quello che lo distingue dagli altri esseri viventi: la sua intelligenza o coscienza, considerata in relazione alle capacità precedentemente menzionate.

Per anni, la ricerca nel campo dell'intelligenza artificiale si è concentrata su domande come: “Le macchine possono pensare?” e “Possono le macchine essere coscienti?”. Queste ricerche fortemente interdisciplinari abbracciano un vasto spettro di competenze, che spaziano dalla teologia e l'etica all'ingegneria e la matematica. Con un obiettivo così ambizioso, sono stati raggiunti numerosi traguardi intermedi nel corso dei decenni, culminati nei modelli generativi odierni come ChatGPT o Gemini. Questi modelli si sono dimostrati capaci di svolgere compiti ben oltre le aspettative iniziali dei loro sviluppatori, che li consideravano semplicemente un passo verso la risposta al grande quesito fondamentale. Attualmente, è possibile interagire con questi strumenti in modo multimodale, includendo testo, immagini, video e audio, ottenendo risultati talvolta indistinguibili da quelli che potrebbe produrre un essere umano.

Stupore per i progressi inaspettati e spavento per l'incertezza nel futuro delle AI

Stupisce più di ogni altra cosa trovarsi di fronte a un risultato intermedio che ancora non sappiamo spiegare: abbiamo costruito strumenti addestrati per alcune abilità, ma molte altre sono emerse spontaneamente mentre elaboravano migliaia di testi, audio, immagini e video. Spaventa chiedersi se un risultato considerato intermedio possa in realtà essere la chiave della conoscenza che ora è nelle nostre mani, senza sapere dove ci potrebbe portare o cosa altro potrebbe far emergere.

Lo stupore è un sentimento ampiamente percepibile nelle pubblicazioni, nelle conferenze internazionali e nei seminari tenuti dai massimi esperti in intelligenza artificiale. Per anni, si è creduto e affermato che la sola forza bruta computazionale e l'abbondanza di dati non fossero sufficienti per sviluppare le capacità che oggi osserviamo; si pensava che fosse necessario "qualcosa in più". Pertanto, il sentimento di stupore, che rivela anche una certa presa di coscienza dell'incompletezza della nostra comprensione degli sviluppi recenti, si è manifestato così intensamente da raggiungere e influenzare l'opinione pubblica.

Lo spavento è un'emozione che è poco intuitiva e comprensibile dal punto di vista degli sviluppatori di intelligenza artificiale. Attualmente, infatti, le intelligenze artificiali mostrano limitate capacità di intelligenza e nessuna forma di coscienza. La creazione di un breve testo o di una semplice immagine richiede un consumo energetico migliaia di volte superiore a quello di un cervello umano e la necessità di accedere a praticamente tutti i dati prodotti dall'umanità e, nonostante questo, talvolta i risultati ottenuti oscillano tra il tragico e il comico.

Robot inquietanti
Robot inquietanti - immagine generata da una A.I.

Apprensione

L'apprensione che molti di noi provano è perfettamente comprensibile quando la si considera da una prospettiva differente e più ampia. La questione centrale che emerge, a volte anche a livello inconscio, non è tanto se le macchine possano pensare o essere coscienti, ma piuttosto fino a che punto l'automazione possa influenzare la società o le nostre vite personali. Per dirla in termini più diretti, i recenti progressi nell'Intelligenza Artificiale hanno accelerato la consapevolezza di come la tecnica in generale, inclusi tutti gli strumenti informatici e di automazione come computer, smartphone, elettrodomestici, automobili, assistenti vocali e l'internet delle cose, abbiano un impatto profondo sia sulla collettività che sulle singole persone.

La tecnica mira a massimizzare i risultati utilizzando il minimo degli strumenti necessari. Per raggiungere questo obiettivo, sono essenziali due componenti principali: metriche accurate e un'elevata prevedibilità.

Le metriche esatte sono diffuse in numerosi settori, dall'economia e finanza all'educazione e alla medicina. Tuttavia, come abbiamo osservato, questo può di per sé generare una distorsione della realtà, poiché concentrarsi sull'ottimizzazione di una specifica metrica, per definizione, comporta spesso la trascuratezza di altre metriche rilevanti.

Aumentare la prevedibilità di un fenomeno richiede la canalizzazione delle procedure in un processo il più oggettivo possibile, minimizzando l'intervento discrezionale individuale. Questo approccio è applicato e applicabile in vari ambiti, come nell'approvazione di mutui, nella formulazione di preventivi, nella selezione del personale o nell'autorizzazione di farmaci. Gli aspetti positivi di questa oggettivazione dei processi sistema sono innegabili, come dimostra l'aumento della speranza di vita grazie alla medicina moderna basata su protocolli e metriche oggettive. Tuttavia, esistono anche svantaggi: è statisticamente improbabile creare protocolli che eliminino completamente le distorsioni in casi individuali o in piccoli sottogruppi della popolazione.

La tecnica ha manifestato poi i suoi aspetti più negativi quando ha iniziato a infiltrarsi nella vita dei bambini e degli adolescenti, mirando a massimizzare la loro partecipazione su piattaforme di gioco o social network. Infatti, per massimizzare questa metrica, si è sfruttando la prevedibilità degli adolescenti, mostrando contenuti che alimentano le loro inclinazioni e vulnerabilità, piuttosto che promuovere ciò che sarebbe più corretto ed educativo.

In sintesi, l’apprensione verso l’Intelligenza Artificiale può essere compresa meglio quando la si osserva in un'ottica più ampia: da una parte c’è un limite della tecnica moderna di tenere in considerazione tutte le sensibilità che un fenomeno richiederebbe di considerare e dall’altra la scala enorme a cui le A.I. operano amplifica l’impatto, individuale e sociale, delle possibili distorsioni provocate dai limiti della tecnica stessa.

Regole internazionali

Questa giusta miscela di stupore e apprensione generata dallo sforzo comune degli uomini nel rispondere alla domanda “Le macchine possono pensare?” o “Possono le macchine essere coscienti?” è qualcosa comune che si può ritrovare in altre discipline o domande fondamentali dell’uomo. La ricerca nella fisica ha prodotto come risultato intermedio la scoperta dell’energia atomica che se da una parte potrebbe permetterci di arrivare a produrre energia pulita (tramite la fusione nucleare) crea giganteschi dilemmi etici quando utilizzata per la creazione di strumenti di distruzione di massa.

Le regolamentazioni internazionali, come l’AI-Act per l’Intelligenza Artificiale, sono quindi una reazione a questi sentimenti degli individui e della società che richiedono risposte che permettano di minimizzare il più possibile le distorsioni derivanti dall’utilizzo (più o meno consapevole) di uno strumento tecnico. In questo senso l’AI-Act, comprendendo i limiti della attuale comprensione dello strumento tecnico, adotta un approccio basato sul rischio. Invece di capire lo strumento si cerca di prevederne i possibili impatti. Quando questi ultimi non sono accettabili semplicemente lo strumento deve essere proibito. Quando l’impatto è alto il sistema va monitorato e, nel caso di rischi o incidenti non previsti, ne va ripensato il livello di rischio.

di Luca Oneto