Science Snack
snack

Robot che vedono come il cervello: visione neuromorfica per navigare

Una nuova tecnologia ispirata al sistema visivo dei mammiferi permette ai robot di riconoscere i luoghi consumando meno energia delle telecamere tradizionali.

·

Vedere con gli eventi, non con i fotogrammi

Immagina di dover riconoscere la tua casa al buio, sotto la pioggia o con il sole accecante. Per un robot autonomo, questo è un problema quotidiano. Le telecamere tradizionali catturano immagini complete decine di volte al secondo, consumando molta energia e faticando quando la luce cambia drasticamente.

Ricercatori hanno sviluppato SpikeVPR, un sistema che combina telecamere a eventi con reti neurali a impulsi. Secondo lo studio pubblicato su arXiv, questo approccio si ispira al modo in cui i mammiferi navigano negli ambienti. Le telecamere a eventi non registrano fotogrammi completi, ma solo i cambiamenti di luminosità pixel per pixel, proprio come le cellule della nostra retina reagiscono agli stimoli visivi.

Il sistema genera descrittori compatti dei luoghi, una sorta di impronta digitale visiva, che rimangono riconoscibili anche quando illuminazione, angolazione o aspetto dell'ambiente cambiano radicalmente. Questo permette ai robot di orientarsi con pochi esempi di riferimento, riducendo sia i requisiti computazionali che il consumo energetico.

Impulsi elettrici al posto dei calcoli tradizionali

Il cuore di SpikeVPR sono le reti neurali a impulsi, o SNN. A differenza delle reti neurali convenzionali che elaborano numeri continui, le SNN comunicano attraverso impulsi elettrici discreti, imitando i neuroni biologici. Questo approccio è intrinsecamente più efficiente dal punto di vista energetico.

Gli autori dello studio hanno addestrato il sistema end-to-end utilizzando l'apprendimento con gradienti surrogati, una tecnica che aggira le difficoltà matematiche dell'addestramento delle reti a impulsi. Hanno inoltre introdotto EventDilation, una strategia di augmentazione dei dati che rende il sistema robusto alle variazioni di velocità e temporali.

I test sono stati condotti su due dataset particolarmente impegnativi che simulano condizioni estreme. I risultati suggeriscono che SpikeVPR mantiene prestazioni affidabili anche quando i metodi tradizionali basati su deep learning falliscono, pur richiedendo una frazione dell'energia.

Verso robot più autonomi e sostenibili

L'efficienza energetica non è solo una questione tecnica. Per droni, robot di esplorazione o veicoli autonomi che operano con batterie limitate, ogni watt risparmiato si traduce in maggiore autonomia operativa. La visione neuromorfica potrebbe estendere significativamente i tempi di missione.

Questa tecnologia apre prospettive interessanti anche per applicazioni in ambienti difficili: robot di soccorso che operano in edifici crollati con illuminazione variabile, rover planetari che devono navigare con risorse energetiche minime, o sistemi di sorveglianza a basso consumo.

Rimangono tuttavia sfide aperte. L'hardware neuromorfico è ancora in fase di sviluppo e non tutti gli scenari reali sono stati testati. Ma l'approccio dimostra come guardare alla biologia possa offrire soluzioni eleganti a problemi ingegneristici complessi.

Questo articolo si basa su un preprint pubblicato su arXiv (2604.03277v1) e non è ancora stato sottoposto a peer review. Il titolo originale è "Event-Driven Neuromorphic Vision Enables Energy-Efficient Visual Place Recognition".
Le telecamere a eventi registrano cambiamenti con una risoluzione temporale di microsecondi, circa mille volte più veloce di una telecamera tradizionale. Questo le rende ideali per catturare movimenti rapidissimi che l'occhio umano non percepirebbe.