Intervista con il Professor Uri Hasson dal dipartimento di psicologia dell’Università di Princeton
Il fascino per il cervello ha attraversato tutta la storia dell’umanità; dagli antichi egizi fino a oggi, ci siamo posti domande sul suo funzionamento e sulla sua capacità di elaborare il linguaggio. Secondo Uri Hasson, Professore al dipartimento di psicologia della Princeton University, “abbiamo grandi teorie, ma prove troppo piccole per supportarle”. Hasson sta lavorando per superare questo limite e validare le moderne teorie sull’apprendimento e l’elaborazione del linguaggio. Abbiamo avuto con lui una lunga e piacevole chiacchierata durante il Festival della Scienza di Genova, ospitati nella sala stampa in un pomeriggio di fine ottobre. Hasson è alto 1 metro e 90, un elemento fisico che bene si sposa con i ragionamenti di cui ci ha reso partecipi. Nel suo risponderci alle nostre numerose domande, ha mostrato tutta la determinazione di chi è consapevole della forza delle proprie idee. Nei 60 minuti di intervista ci ha spiegato come l’IA sta cambiando i paradigmi delle neuroscienze.
Il primo punto su cui abbiamo discusso è legato ai più recenti sviluppi dell’intelligenza artificiale: i suoi studi stanno evolvendo insieme ai large language models (LLM), strumenti capaci di conversare in un modo che noi percepiamo come naturale. Da questa percezione di “naturalezza”, infatti, ha avuto origine una domanda di ricerca: i modelli linguistici hanno qualcosa in comune con il funzionamento del cervello umano, oppure sono una tecnologia con meccanismi non correlati alle abilità della nostra mente? La risposta è cruciale per le neuroscienze, perché determina se gli LLM siano o meno utilizzabili come modelli per lo studio dell’elaborazione del linguaggio. “È quello che accade se consideriamo un orologio analogico e uno digitale, entrambi forniscono l’orario, ma funzionano in modi diversi. Non basta osservare cosa fa un sistema, ma bisogna capire come arriva al risultato atteso”, spiega. Nel caso degli LLM, la sola constatazione che parlino come un essere umano non è sufficiente a dire che siano una macchina con una mente umana: serve l’analisi dei meccanismi interni che determinano i comportamenti visibili dall’esterno.
Secondo Hasson, che sta studiando correlazioni tra cervello e modelli linguistici, la percentuale di somiglianza è al 50% e l’altra metà sta nelle tecniche di produzione del linguaggio: “Gli LLM superano il test di Turing, parlano come noi, ci convincono che sono troppo intelligenti per essere ignorati. Dall’altro lato sono altrettanto stupidi, fanno errori, non hanno coscienza e non sanno di cosa parlano. Sono modelli statistici: non sono certo che pensino”. Un’altra differenza ritenuta cruciale sta nel modo in cui i programmatori istruiscono i propri LLM, affidandosi ai testi presenti in rete e ripetendo più volte le procedure di apprendimento. “Vogliamo che i modelli linguistici siano superumani, che sappiano tutto di scienza, storia, politica, salute mentale, cibo… Mai troverai una persona che sa tutto di tutto perché nessuno può leggere tutti i libri del mondo.”
La mente umana, infatti, non impara il linguaggio così: un bambino nasce incapace di muoversi, parlare o anche solo di stare seduto e nel giro di tre anni parla con tutti, coetanei e adulti. “È la magia del linguaggio” sottolinea Hasson “e la domanda è: come ci riescono? C’è dibattito da almeno duemila anni: siamo nati con la conoscenza del linguaggio o lo impariamo dall’ambiente?” Hasson e il suo team stanno acquisendo dati che possano contribuire a questo dibattito tramite un progetto di ricerca durante cui ha monitorato, con telecamere e microfoni posizionati in casa, i primi due anni di vita di 15 neonati. Migliaia di ore di registrazione che permettono di analizzare come ogni bambino interagisce con l’ambiente e impara a parlare: questa mole di dati sarà il substrato sui cui costruire modelli di intelligenza artificiale che verifichino se gli input siano sufficienti per apprendere un linguaggio o se servano conoscenze innate. Ci racconta che già in passato una persona “aveva registrato il proprio bambino per due anni, ma è stato prima del machine learning e i dati erano troppi. Chiese a qualcuno di elaborarli, ma era impossibile: nessuno sapeva cosa farne. Adesso che abbiamo il deep learning, posso dire: ora so cosa fare con questi dati”. Il sorriso che ha accompagnato tutta la discussione lascia intendere che si sta preparando a dare risposte interessanti.
Il futuro degli LLM e della ricerca sull’elaborazione del linguaggio.
Guardando alla storia del machine learning e delle neuroscienze, Hasson ritiene che le conoscenze sul funzionamento del cervello umano siano cresciute insieme alle tecnologie informatiche. Nati negli anni ’50 su idea dello psicologo Warren Sturgis McCulloch, i primi modelli matematici ispirati ai neuroni biologici hanno anticipato i tempi, perché il loro funzionamento era troppo limitato dalla capacità di calcolo dei computer e dalla scarsità di dati disponibili. In quel periodo, nelle neuroscienze si affermava l’idea che il cervello predicesse un evento sulla base di cosa lo avesse preceduto, il cosiddetto predictive coding.
Con l’arrivo di internet e di processori sempre più veloci e miniaturizzati, quei modelli hanno iniziato a funzionare e l’avvento degli LLM autoregressivi – capaci di predire la parola successiva sulla base del testo già scritto e con un comportamento simile a quello umano – ha portato a una conferma della teoria del predictive coding. Questa co-evoluzione delle neuroscienze e dell’intelligenza artificiale rende sempre più profonda la conoscenza sul comportamento del cervello umano. Gli LLM non sanno cosa sia un verbo o un sostantivo, usano la matematica per valutare quanto due parole siano simili in significato e quanto adempiano a ruoli simili in una frase. È un processo chiamato embedding e anche il cervello umano sembra usare questo stratagemma per elaborare il linguaggio.
Tutte queste conoscenze accrescono la percentuale di somiglianza tra LLM e cervello umano. “Non sappiamo ancora dove sia il tetto, quanto possiamo spingere questi modelli prima che si blocchino: forse 75% o forse arriveremo al 100%. È una domanda aperta; se parli con le persone delle aziende pensano che raggiungeremo il 100%, alcuni di loro sono molto fiduciosi. Io sto provando a essere più cauto, perché ad oggi non lo sappiamo”
Per le neuroscienze si stanno aprendo nuove prospettive poiché le attività di ricerca possono uscire dai laboratori, dove l’ambiente e gli stimoli sono controllati, e studiare il cervello nella vita reale, durante cui possono verificarsi situazioni impreviste e non ripetibili in modo identico. Hasson sta collaborando con l’unità Genetics of Cognition dell’IIT diretta da Francesco Papaleo proprio in questa direzione: spostare gli attuali limiti della ricerca verso lo studio di comportamenti sociali complessi all’interno dell’ambiente in cui nascono ed evolvono. “Anche il semplice confronto con Hasson mi fa ragionare su cose a cui non pensavo”, commenta Papaleo.



