Un algoritmo utilizza le onde radio anziché la luce visibile per rilevare ciò che le persone stanno facendo in situazioni in cui l’imaging a luce visibile fallisce in questo tipo di compito.
di ArXiv
La visione artificiale ha un record impressionante. Ha la capacità sovrumana di riconoscere persone, volti e oggetti. Può anche identificare diversi tipi di azioni, anche se non altrettanto bene come gli umani.
Ma ci sono limiti alle sue prestazioni. Le macchine hanno difficoltà quando persone, volti o oggetti non sono completamente visibili e con bassi livelli di luce.
Ma c’è un’altra parte dello spettro elettromagnetico che non è limitata allo stesso modo. Le onde radio riempiono il nostro mondo, sia di notte che di giorno. Passano facilmente attraverso i muri e sono trasmesse e riflesse dai corpi umani. In effetti, i ricercatori hanno sviluppato vari modi per utilizzare i segnali radio Wi-Fi per vedere oltre i muri.
Ma questi sistemi di visione radio presentano alcune carenze. La loro risoluzione è bassa, le immagini non sono pulite e piene di riflessi, il che rende difficile capire cosa si ha di fronte.
In questo senso, le immagini radio e le immagini a luce visibile presentano vantaggi e svantaggi complementari. E questo aumenta la possibilità di usare i punti di forza di uno per superare le carenze dell’altro.
Tianhong Li e i colleghi del MIT hanno trovato il modo di insegnare a un sistema di visione radio a riconoscere le azioni delle persone addestrandolo con immagini a luce visibile. Il nuovo sistema di visione radio può vedere cosa fanno gli individui in una vasta gamma di situazioni in cui l’imaging a luce visibile fallisce.
“Abbiamo pensato a un modello di rete neurale in grado di rilevare le azioni umane attraverso pareti, ostacoli e in condizioni di scarsa illuminazione”, afferma Li.
Il metodo del team utilizza una strategia accurata. L’idea di base è quella di registrare immagini video della stessa scena usando luce visibile e onde radio. I sistemi di visione artificiale sono già in grado di riconoscere le azioni umane dalle immagini a luce visibile. Quindi il prossimo passo è correlarle con le immagini radio della stessa scena.
Ma la difficoltà sta nel garantire che la visione si concentri sul movimento umano piuttosto che su altre caratteristiche, come lo sfondo. Li e colleghi introducono quindi un passaggio intermedio in cui la macchina genera modelli a figure stilizzate 3D che riproducono le azioni delle persone nella scena.
“Traducendo l’input in una rappresentazione intermedia basata su uno schema, il nostro modello può apprendere sia da insiemi di dati basati sulla visione che su radiofrequenza e consentire ai due sistemi di aiutarsi a vicenda”, sostiene Li.
In questo modo il sistema impara a riconoscere le azioni alla luce visibile e quindi a individuare le stesse azioni che si svolgono nel buio o dietro i muri, usando le onde radio. “Il nostro modello raggiunge un’accuratezza comparabile ai sistemi di riconoscimento dell’azione basati sulla visione in scenari visibili, ma continua a funzionare accuratamente quando le persone non sono visibili”, affermano i ricercatori.
È un lavoro interessante che ha un potenziale significativo. Le ovvie applicazioni si trovano in scenari in cui le immagini a luce visibile falliscono, in condizioni di scarsa luminosità e dietro porte chiuse.
Ma ci sono anche altre possibili applicazioni. Un problema con le immagini a luce visibile è che le persone sono riconoscibili, violando in tal modo la privacy.
Ma un sistema radio non ha la risoluzione per il riconoscimento facciale. Identificare le azioni senza riconoscere i volti non alimenta le preoccupazoni relative alla privacy.
“Si può portare questo tipo di di riconoscimento all’interno delle abitazioni e consentire la sua integrazione nei sistemi di case intelligenti”, afferma Li. In questo modo sarebbe possibile monitorare la casa di una persona anziana e intervenire immediatamenmte, per esempio, in caso di una caduta. E senza rischi per la privacy.
Immagine: MIT Csail
(rp)