Quando l’intelligenza artificiale impara a ragionare: la rivincita dell’IA neuro-simbolica
Per anni l’intelligenza artificiale è stata sinonimo di approcci puramente data-driven: modelli, soprattutto reti neurali, sempre più grandi, alimentati da quantità crescenti di dati e potenza computazionale. La convinzione dominante era lineare: più dati e più parametri significano più intelligenza.
Tuttavia, questo approccio ha iniziato a mostrare limiti evidenti. I moderni modelli linguistici possono comporre poesie, tradurre testi e generare immagini straordinarie, ma non sempre comprendono ciò che producono. Possono mancare di coerenza logica, fraintendere il contesto, commettere errori elementari di ragionamento o cadere in allucinazioni informative, generando contenuti inesatti o potenzialmente rischiosi.
È in questo contesto che si sta affermando una nuova direzione, l’IA neuro-simbolica, un paradigma che combina il meglio dei due mondi: la capacità di apprendere dai dati dei modelli neurali e il rigore logico e inferenziale delle rappresentazioni simboliche.
I più recenti sviluppi tecnologici, introdotti da attori come OpenAI e Google, iniziano a mostrare su scala reale il potenziale di questa integrazione, delineando una nuova fase nell’evoluzione dell’intelligenza artificiale.
Cos’è l’IA neuro-simbolica
L’idea alla base dell’approccio neuro-simbolico non è nuova: ha radici profonde nella storia dell’IA. Negli anni ’60 e ’70, i sistemi simbolici cercavano di imitare la mente umana rappresentando la conoscenza tramite regole logiche, concetti e relazioni esplicite. Questi modelli erano in grado di ragionare in modo chiaro e spiegabile, ma risultavano rigidi: faticavano a gestire ambiguità, incertezza e la complessità del mondo reale.
Con l’avvento dei modelli neurali, gli approcci data-driven che oggi riconosciamo come deep learning, la situazione si è capovolta. Le reti neurali apprendono dai dati, riconoscono pattern e generalizzano, ma non sanno spiegare né giustificare le loro decisioni. Operano come scatole nere, prive di una struttura logica interpretabile.
L’approccio neuro-simbolico mira a unire questi due poli.
- le reti neurali estraggono e sintetizzano informazioni dai dati;
- i moduli simbolici rappresentano conoscenza, logica, relazioni e regole astratte;
- il meccanismo di integrazione consente al sistema di passare dall’intuizione alla deduzione, dal riconoscimento alla spiegazione.
In altre parole, non basta riconoscere: serve anche capire e ragionare.
OpenAI e Google: la prova che funziona
I sistemi più recenti sviluppati da OpenAI e Google rappresentano un punto di svolta. Per potenziare le capacità di ragionamento, non si sono limitati ad aumentare la complessità delle reti neurali, la quantità di dati o la potenza di calcolo: hanno introdotto veri e propri meccanismi di ragionamento simbolico.
Un esempio significativo è la capacità delle IA moderne di usare strumenti, proprio come farebbe una persona che consulta una calcolatrice o un’enciclopedia. In pratica, il modello può accedere a risorse esterne, come motori di calcolo, software specializzati, basi di dati organizzate logicamente o grandi collezioni strutturate di conoscenza, per risolvere problemi che richiedono logica rigorosa, precisione e informazioni strutturate.
Un altro approccio è l’integrazione dei modelli linguistici con motori di ragionamento logico dedicati, in grado di seguire regole e processi inferenziali in modo trasparente e controllabile. Questo consente all’IA non solo di comprendere e generare testo, ma di farlo ragionando in modo più coerente, affidabile e spiegabile.
Questi sistemi stanno già mostrando prestazioni superiori rispetto ai modelli puramente neurali, soprattutto nei compiti che richiedono ragionamento logico, astrazione e coerenza semantica. In altre parole, confermano quanto sostenuto da molti ricercatori per decenni: l’intelligenza autentica nasce dalla combinazione tra percezione e ragionamento.
Perché serve andare oltre i dati
L’approccio neurale tradizionale presenta limiti strutturali evidenti:
- richiede enormi quantità di dati, spesso costosi o difficili da ottenere;
- fatica a generalizzare al di fuori di ciò che ha visto durante l’addestramento;
- non possiede una reale comprensione del significato dei simboli che manipola.
Per esempio, un modello linguistico può associare “Parigi” a “Francia” perché ha osservato quella correlazione milioni di volte, ma non sa cosa sia un Paese o una capitale. Al contrario, il ragionamento simbolico permette di collegare concetti in modo logico e sistematico: se Parigi è la capitale della Francia e Roma è la capitale dell’Italia, allora Parigi e Roma condividono una relazione strutturale, non semplicemente una correlazione statistica.
In un sistema neuro-simbolico, le regole logiche e le ontologie di conoscenza guidano e integrano la componente neurale, permettendo inferenze nuove anche con quantità limitate di dati. Questo approccio riduce le allucinazioni, aumenta la trasparenza e migliora la stabilità del sistema.
I vantaggi chiave
- migliore generalizzazione: l’AI neuro-simbolica può ragionare su concetti mai visti, grazie alle regole esplicite che collegano idee e relazioni;
- maggiore affidabilità e trasparenza: poiché parte della conoscenza è rappresentata simbolicamente, è possibile spiegare come e perché il sistema arriva a una conclusione;
- riduzione delle allucinazioni: l’uso di regole e vincoli logici impedisce di generare risposte palesemente false o incoerenti;
- efficienza nell’uso dei dati: servono meno esempi per apprendere nuovi concetti, poiché il ragionamento logico integra la conoscenza già acquisita;
- versatilità nei domini complessi: in ambiti come medicina, diritto, sicurezza informatica o finanza, dove le regole contano tanto quanto i dati, un’IA che combina apprendimento e logica può offrire risultati più precisi e verificabili.
Una nuova fase per l’IA
Per decenni, il dibattito tra approcci simbolici e neurali ha diviso la comunità scientifica. Oggi, con l’ascesa dei modelli generativi, stiamo assistendo a un avvicinamento tra i due mondi.
L’IA neuro-simbolica non rappresenta una moda passeggera, ma un ritorno alle radici dell’intelligenza artificiale: non solo imitare il comportamento umano, ma comprenderne e riprodurne la capacità di pensare, dedurre e spiegare.
Se gli sviluppi recenti di OpenAI e Google ci hanno insegnato qualcosa, è che il prossimo salto evolutivo dell’IA non dipenderà dal modello più grande, ma dal modello che comprende ciò che fa. Un’IA capace di integrare intuizione e ragionamento, percezione e logica, dati e conoscenza - proprio come fa la mente umana.
Articoli già usciti di Luca Oneto:
- https://life.unige.it/follia-artificiale
- https://life.unige.it/alphafold
- https://life.unige.it/AI-accelera-la-ricerca-scientifica
- https://life.unige.it/agenti-intelligenti-fuori-controllo
- https://life.unige.it/intelligenza-artificiale-uomo
- https://life.unige.it/intelligenza-artificiale-comprensione-correlazione
- https://life.unige.it/la-scorciatoia-delle-AI
- https://life.unige.it/luci-e-ombre-intelligenza-artificiale
- https://life.unige.it/IA-disparita-e-disoccupazione
- https://life.unige.it/intelligenza-artificiale-allineamento-esseri-umani
- https://life.unige.it/domande-intelligenza-artificiale
- https://life.unige.it/IA-autodidatte
- https://life.unige.it/AI-act-in-breve
- https://life.unige.it/impatto-ia-su-societa-e-individui
Luca Oneto è docente dell’Università di Genova con specializzazione in intelligenza artificiale; è stato recentemente ascoltato in una audizione alla Camera dei Deputati con un intervento dal titolo: "Indagine conoscitiva sull’intelligenza artificiale: opportunità e rischi per il sistema produttivo italiano".
Luca Oneto è vincitore nel 2019 del Premio Somalvico come Miglior giovane ricercatore italiano in intelligenza artificiale e di due Amazon machine learning research award.