Intervista a Chiara Bartolozzi, coordinatrice della linea di ricerca “Event-Driven Perception for Robotics” di IIT
“Vi invitiamo a visitare e scoprire Genova, quando viaggiare tornerà ad essere sicuro per la salute”, si legge sul sito della conferenza internazionale AICAS 2020, dedicata all’intelligenza artificiale (IA), ai circuiti e ai sistemi, la quale, prima della pandemia, si sarebbe dovuta tenere a Genova, richiamando scienziati da tutto il mondo, con l’organizzazione da parte di IIT, per conto della società scientifica internazionale IEEE Circuit and Systems Society (CASS). Una conferenza unica nel suo genere, che unisce gli aspetti più teorici dell’IA con quelli più concreti dei circuiti elettronici, una sorta di unione tra “mente” e “corpo” per le macchine intelligenti del futuro, dove si studiano anche circuiti ispirati al funzionamento dei neuroni del cervello. L’evento è diventato una conferenza virtuale online dal 31 agosto al 4 settembre, accessibile gratuitamente previa registrazione. Ne abbiamo parlato con Chiara Bartolozzi, Responsabile del laboratorio di Event-driven perception for robotics di IIT a Genova, esperta di neuromorfo e fautrice dell’iniziativa.
La conferenza AICAS è di fatto del tutto innovativa rispetto ad altri tipi di conferenze nel settore della robotica e dell’intelligenza artificiale (IA). Ci puoi spiegare perché?
Nel panorama internazionale ci sono conferenze dedicate unicamente all’IA e alla robotica, da quella industriale a quella soffice, e conferenze dedicate ai circuiti, al loro disegno, ai sistemi. Non esisteva ancora nessuna conferenza che mettesse insieme i due aspetti. Ed è estremamente importante per fare sì che la robotica e l’intelligenza artificiale abbiano le piattaforme di elaborazione necessarie per supportare gli algoritmi e le architetture software, e viceversa.
A causa della pandemia avete dovuto annullare l’evento fisico e preferire la modalità virtuale, così come è accaduto ad altre conferenze internazionali nel corso dell’anno. Quante iscrizioni avete ricevuto e da quali parti del mondo?
Dal momento che l’evento è diventato online, abbiamo avuto un incremento di iscrizioni, arrivando in totale a oltre 700 persone da tutto il mondo, con una grande affluenza da Taiwan e Cina, Stati Uniti e Nord Europa. Paesi particolarmente interessati al tema. A Taiwan, per esempio, ci sono i grossi produttori di chip, e la Cina sta investendo in modo consistente nelle tecnologie dette “neuromorfe”, come per esempio l’Università di Pechino, dove hanno anche una grossa scuola di design dei circuiti. In Europa abbiamo avuto l’adesione di IBM Research di Zurigo, Bosch, ARM, Huawei, Cadence, Facebook, i quali sono stati parte del programma, intervenendo in tavole rotonde dedicate alle applicazioni in ambito industriale.
Proprio per la presenza di grossi attori interessati Taiwan è stata la sede della prima edizione della conferenza AICAS, mentre quest’anno si era scelto di realizzarla a Genova. Quale è stata la motivazione?
Dal 2019 sono Chair del Comitato tecnico su “Neuromorphic Systems and Application” della IEEE CASS e per questo motivo mi è stato chiesto di organizzare la seconda conferenza AICAS in Europa. Per motivi logistici, ma anche per le ricerche che svolgiamo in IIT, è stata scelta Genova. Io per prima mi occupo di applicare nei nostri robot uno specifico tipo di circuiti, i circuiti neuromorfi, ovvero tali che cercano di replicare le caratteristiche base del cervello in modo che, per esempio, possiamo gestire l’informazione sensoriale del robot partendo da un sistema di registrazione e analisi dell’informazione molto simile a quella dei neuroni. Altri miei colleghi, come il gruppo di Lorenzo Natale, lavorano invece su architetture software complesse, basate sul deep learning, per cui è indispensabile avere un certo tipo di hardware, in particolare le GPU (graphics processing unit).
I circuiti neuromorfi per l’AI sono un settore molto all’avanguardia. A che punto è la ricerca?
Nel caso delle architetture più classiche, se così possiamo dire perché si basano sul fatto che memoria e calcolo risiedono in due luoghi diversi, basate su GPU, ci si sta spingendo verso un maggiore capacità di calcolo, poiché lo studio e l’ingegnerizzazione dei circuiti è più consolidata. Nel campo del neuromorfo l’architettura si allontana da quella tradizionale e diventa più simile al cervello, dove memoria e calcolo risiedono nello stesso luogo, ma l’ingegnerizzazione è un passo indietro rispetto alle GPU. Nel campo del neuromorfo, inoltre, dobbiamo andare a vedere anche i risultati delle neuroscienze computazionali, cioè capire sempre più come funziona il cervello. Conferenze come AICAS servono anche a questo.
Ma applicando il neuromorfo all’AI dove si spera di arrivare?
L’idea è arrivare a sistemi artificiali intelligenti in grado di risolvere problemi dove vi è un interfacciamento con il mondo reale, ovvero capaci di interpretare i segnali sensoriali in arrivo dall’esterno e produrre una decisione, così come si comporta un sistema biologico. Fare, quindi, cose simili rispetto a quanto ottenuto con il deep learning, ma con la differenza di essere in grado in adattarsi al mondo reale, che è costituito da ambienti mutevoli, illuminazioni diverse, oggetti differenti ma dove le differenze possono essere minime (dal colore alla temperatura) ma significative.
Sul neuromorfo coordini il progetto NeuTouch dedicato proprio alla capacità di sistemi robotici di sentire l’ambiente circostante, ce ne puoi parlare?
Neutouch è un progetto finanziato nell’ambito delle Marie-Curie Actions per formare 15 studenti di dottorato nel campo del tatto artificiale neuromorfo; per loro si tratta di studiare diverse discipline, dalla biologia alle neuroscienze computazionali, fino alla progettazione di robot e sistemi artificiali. Il punto di partenza del progetto è proprio ideare e sviluppare l’interfaccia tra l’ambiente esterno e il sistema robotico, come un robot umanoide o una protesi, traendo ispirazione dai sistemi biologici. I sistemi biologici reagiscono ai cambiamenti dei segnali ambientali, mentre ad oggi quelli artificiali registrano immagini statiche. Grazie al dialogo con i nostri colleghi che si occupano di neuroscienze computazionali, in particolare Stefano Panzeri, partner nel progetto, capiamo come viene elaborata l’informazione sensoriale da parte del cervello animale, e di conseguenza pensiamo a uno sviluppo hardware e ad un’applicazione per i sistemi robotici. Il focus di NeuTouch è il senso del tatto. Al momento un hardware neuromorfo per il tatto non è ancora stato sviluppato, a parte un primo brevetto che ho depositato insieme all’Università di Genova. Il nostro obiettivo è di arrivare là.
Anche su questo tema state preparando incontri e seminari virtuali. Quando saranno?
La scuola di NeuTouch, che organizzo insieme a Silvestro Micera di EPFL e Scuola Sant’Anna di Pisa, partner del progetto NeuTouch, avrà inizio il 21 settembre e ci dedicheremo al tema della sensorizzazione delle protesi robotiche. Le registrazioni, gratuite, sono già aperte sul sito del progetto: www.neutouch.eu