L’idea che può far capire il mondo alla IA ma che solleva nuove domande
World model: l’idea per far "capire" il mondo alla IA ma che solleva nuove domande
Negli ultimi anni l’intelligenza artificiale è entrata nel dibattito pubblico con una forza inedita. Sistemi capaci di scrivere testi, tradurre lingue, generare immagini o rispondere a domande complesse hanno dato l’impressione che le macchine stiano finalmente “capendo” il mondo. Eppure, proprio alcuni dei protagonisti di questa rivoluzione sostengono che ciò che oggi chiamiamo intelligenza artificiale sia ancora privo di un elemento essenziale: una rappresentazione interna coerente della realtà. È in questo contesto che ha preso forma l’idea di world model.
Con l’espressione world model si indica, in modo molto generale, la capacità di un sistema di costruire un modello del mondo che lo circonda, cioè una struttura interna che rappresenti come le cose funzionano, come evolvono nel tempo e quali conseguenze possono avere determinate azioni. Non si tratta semplicemente di riconoscere schemi nei dati, ma di disporre di una sorta di simulatore mentale che consenta di anticipare scenari futuri. Gli esseri umani fanno costantemente uso di world model: sappiamo che un oggetto lasciato nel vuoto cade, che una decisione economica avrà effetti indiretti, che alcune azioni sono rischiose anche senza averle mai sperimentate direttamente. Questa capacità predittiva, basata su regolarità apprese, è una componente centrale dell’intelligenza naturale.
Serve prevedere il futuro
Secondo Yann LeCun (vincitore del Turing Award), molti dei sistemi di intelligenza artificiale oggi più diffusi, per quanto impressionanti, non possiedono nulla di simile. I grandi modelli linguistici, ad esempio, sono addestrati a prevedere quale parola sia più probabile dopo un’altra, sulla base di enormi quantità di testi. Questo li rende estremamente abili nel produrre frasi plausibili, ma non implica che comprendano davvero ciò di cui parlano. Il loro funzionamento resta in larga parte reattivo: rispondono a un input con un output statisticamente coerente, senza una rappresentazione esplicita del mondo a cui quelle parole si riferiscono. Da qui derivano fenomeni ormai noti, come risposte sicure ma errate, difficoltà a gestire situazioni nuove o una comprensione molto fragile del senso comune.
L’idea di world model nasce quindi come una critica a questo paradigma. Per LeCun, e per altri ricercatori che condividono questa visione, l’intelligenza non può ridursi alla manipolazione di simboli o alla previsione statistica. Un sistema intelligente deve essere in grado di apprendere le regolarità profonde del mondo, in gran parte senza supervisione, semplicemente osservando come la realtà evolve. In questa prospettiva, prevedere il futuro non è un effetto collaterale dell’intelligenza, ma il suo nucleo stesso.
Una posizione in parte diversa, ma complementare, è quella di Yoshua Bengio (vincitore anche lui del Turing Award), che lega i world model a un tema particolarmente rilevante per il dibattito pubblico: la causalità. Bengio sottolinea che molti sistemi attuali confondono correlazione e causa. Possono individuare regolarità nei dati, ma non distinguere ciò che è davvero responsabile di un certo effetto. Un world model, per essere utile e sicuro, dovrebbe invece rappresentare relazioni causali, permettendo al sistema di ragionare su interventi e conseguenze. Questo aspetto è cruciale quando si immaginano agenti artificiali capaci di agire autonomamente in contesti complessi, perché senza una comprensione causale il rischio di comportamenti imprevisti o dannosi aumenta significativamente.
Esistono i world model?
Dal lato delle applicazioni, la ricerca condotta in Google DeepMind mostra come i world model possano avere un valore pratico, soprattutto in ambienti controllati. Nei giochi strategici o nella robotica, costruire un modello del mondo consente agli agenti di simulare azioni possibili prima di eseguirle realmente, riducendo costi e rischi. In questi contesti, il world model non è una teoria astratta, ma uno strumento che migliora l’efficienza dell’apprendimento. Tuttavia, è importante notare che si tratta di mondi molto semplificati, lontani dalla complessità sociale, economica e politica del mondo reale.
Ed è proprio qui che emerge la distanza tra promessa e realtà. Nonostante l’entusiasmo che circonda il concetto di world model, oggi non esistono modelli capaci di rappresentare il mondo in modo generale e affidabile. I sistemi attuali funzionano bene solo in domini ristretti, con regole chiare e confini ben definiti. Quando vengono esposti a situazioni ambigue, incomplete o radicalmente nuove, mostrano rapidamente i loro limiti. Parlare di comprensione del mondo rischia quindi di essere fuorviante, se non si chiarisce che si tratta di una comprensione parziale, fragile e fortemente dipendente dal contesto.
Problemi dei world model
Questa ambiguità ha implicazioni rilevanti per studenti, decisori pubblici e policy maker. Un world model non è una fotografia oggettiva della realtà, ma una rappresentazione costruita a partire da dati, scelte progettuali e assunzioni implicite. Ogni modello del mondo incorpora una visione del mondo, con i suoi bias e le sue omissioni. Se tali modelli vengono usati per supportare decisioni in ambiti sensibili, come la sicurezza, la sanità o le politiche pubbliche, diventa essenziale chiedersi chi definisce quel modello, con quali criteri e con quali meccanismi di controllo.
Inoltre, i world model pongono un problema di trasparenza. Mentre un algoritmo che classifica o predice può essere valutato direttamente sull’output, un modello interno che simula scenari è molto più difficile da ispezionare e verificare. Se un sistema prende decisioni sulla base di simulazioni errate o distorte, individuarne la causa può essere estremamente complesso. Questo rende particolarmente delicata l’attribuzione di responsabilità, un tema centrale nel dibattito sulla governance dell’intelligenza artificiale.
In conclusione, i world model rappresentano una delle idee più ambiziose e interessanti della ricerca contemporanea sull’AI. Offrono una possibile via per superare i limiti dei sistemi puramente statistici e avvicinarsi a forme di intelligenza più robuste e flessibili. Allo stesso tempo, non vanno idealizzati. Non sono una scorciatoia verso una comprensione umana del mondo, né una soluzione automatica ai problemi di affidabilità, bias o sicurezza. Sono, piuttosto, un nuovo terreno di ricerca che rende ancora più urgente un dialogo informato tra scienza, società e politica.
Articoli già usciti di Luca Oneto:
- https://life.unige.it/come-cambia-la-seo
- https://life.unige.it/intelligenza-artificiale-neurosimbolica
- https://life.unige.it/follia-artificiale
- https://life.unige.it/alphafold
- https://life.unige.it/AI-accelera-la-ricerca-scientifica
- https://life.unige.it/agenti-intelligenti-fuori-controllo
- https://life.unige.it/intelligenza-artificiale-uomo
- https://life.unige.it/intelligenza-artificiale-comprensione-correlazione
- https://life.unige.it/la-scorciatoia-delle-AI
- https://life.unige.it/luci-e-ombre-intelligenza-artificiale
- https://life.unige.it/IA-disparita-e-disoccupazione
- https://life.unige.it/intelligenza-artificiale-allineamento-esseri-umani
- https://life.unige.it/domande-intelligenza-artificiale
- https://life.unige.it/IA-autodidatte
- https://life.unige.it/AI-act-in-breve
- https://life.unige.it/impatto-ia-su-societa-e-individui
Luca Oneto è docente dell’Università di Genova con specializzazione in intelligenza artificiale; è stato recentemente ascoltato in una audizione alla Camera dei Deputati con un intervento dal titolo: "Indagine conoscitiva sull’intelligenza artificiale: opportunità e rischi per il sistema produttivo italiano".