Cerca
Close this search box.

18th European Conference on Computer Vision ECCV 2024

L’evento raduna la comunità internazionale di esperti di computer vision e machine learning

Questa settimana, fino al 4 ottobre, a Milano presso l’Allianz MiCo si tiene la 18esima European Computer Vision Conference –  ECCV, evento biennale gestito dalla European Computer Vision Association (ECVA) che riunisce la comunità internazionale di esperti di computer vision e machine learning e attrae centinaia di visitatori provenienti dalle principali company del settore e dai migliori centri di ricerca e università del Mondo.

Il primo evento si è tenuto nel 1990 ad Antibes, in Francia, e successivamente è stato organizzato in tutta Europa.

Per l’edizione 2024 sono attesi 6500 partecipanti provenienti da 76 Paesi diversi. Durante la settimana si susseguiranno 81 workshop e verranno presentati 2400 poster e 200 paper, tutti a tema visione artificiale e apprendimento automatico.

General Chair del comitato organizzativo dell’evento sono Andrew  Fitzgibbon di Graphcore, Laura Leal Taixe di NVIDIA e Vittorio Murino, Università di Verona e Università di Genova. ECCV sarà anche l’occasione per vedere dal vivo l’applicazione dei più sofisticati ed emergenti sistemi di AI e Computer Vision, attraverso le dimostrazioni ad opera dei prototipi presenti nell’area espositiva.

IIT sarà in questo spazio in collaborazione con Raise, l’ecosistema dell’innovazione finanziato su fondi del PNRR, con alcune tecnologie tra cui:

  • Il robot R1 dell’Unità Humanoid Sensing and Perception con la dimostrazione di come il robot usi i dati dei sensori per creare una mappa 3D interrogabili e navigabili tramite comandi in linguaggio naturale e una dimostrazione di ricerca di oggetti su richiesta.
  • L’umanoide ergoCub IIT- INAIL, dell’Unità Artificial Mechanical Intelligence, teleoperato da remoto e da Milano o in autonomia, con la demo di riconsocimento oggetti e presa selettiva e camminata.
  • Il robot iCubHead, dell’Unità CONTACT, con un’architettura cognitiva per l’apprendimento autonomo, che consente di interagire in modo coinvolgente e naturale, competenze attese dai robot sociali nell’ambito del PNRR RAISE. Usando percezione multimodale (audio e video), iCub costruisce una memoria a lungo termine della sua esperienza, riconoscendo eventi ricorrenti e visitatori. La demo integra anche iCube, un dispositivo aptico innovativo per lo studio della manipolazione tattile, con potenziali applicazioni in riabilitazione, in linea con la ricerca PNRR RAISE.
  • I risultati dell’attività congiunta tra i gruppi PAVIS, REHAB e FISM (Fondazione Italiana Sclerosi Multipla), nell’ambito del progetto AI-MOKA. Questa iniziativa ha portato alla creazione di un setup prototipale per la sperimentazione su pazienti affetti da sclerosi multipla in diversi stadi della malattia. L’esperimento prevede l’utilizzo degli occhiali Tobii, che tracciano la direzione dello sguardo, e di modelli di intelligenza artificiale in grado di identificare la posizione degli oggetti osservati dalla persona. Queste due informazioni vengono integrate per elaborare metriche che valutano la qualità dell’attività di “preparazione del caffè” utilizzando una classica moka italiana. Tali metriche potrebbero essere impiegate dai medici per monitorare l’evoluzione della malattia nel tempo.
  • Il robot RINGHIO dell’Industrial Robotic Unit, in grado di soddisfare due esigenze: da una parte ispezionare in maniera autonoma qualsivoglia struttura per verificare lo stato di integrità e conservazione, importante per motivi di sicurezza nel caso di infrastrutture (ponti, viadotti, gallerie) e per motivi di preservazione nel caso del patrimonio culturale, dall’altra di mantenere monitorato, creando un database nel corso degli anni, l’evoluzione di eventuali danneggiamenti per poterne predire l’andamento e quindi poter progammare il miglior intervento di manutenzione per tempistiche e modalità.
  • Il progetto di start up Real-Move: una soluzione che risponde alle esigenze di chi cerca un sistema di Motion Capture facile da calibrare e utilizzare, immune al drift e in grado di tracciare più soggetti in 3D in tempo reale, il tutto a un costo più contenuto rispetto alla concorrenza.
  • Un dimostratore interattivo di un sistema HPE 2D dell’Unità Event-Driven Perception for Robotics, che può funzionare fino a 100 Hz e una precisione dell’89% e viene utilizzato per controllare avatar per giocare al gioco Fruit Ninja, dove velocità e precisione sono di massima importanza. Il sistema viene eseguito online su un laptop, dimostrando il potenziale di un HPE sicuro, in cui i dati personali non vengono mai condivisi su un sistema cloud.

Il programma della European Conference on Computer Vision (ECCV) è consultabile sul sito della conferenza.

Condividi