Skip to main content
STEPHANIE ARNETT/MITTR | ENVATO, GETTY

Un nuovo sistema aiuta i robot a navigare in case che non hanno mai visto prima con un piccolo aiuto da parte di modelli AI open-source.

I robot sono bravi in alcuni compiti. Ad esempio, sono bravissimi a raccogliere e spostare gli oggetti e stanno migliorando anche a cucinare.

Ma mentre i robot possono completare facilmente compiti come questi in un laboratorio, farli lavorare in un ambiente sconosciuto, dove i dati disponibili sono pochi, è una vera sfida.

Ora, un nuovo sistema chiamato OK-Robot potrebbe addestrare i robot a raccogliere e spostare oggetti in ambienti che non hanno mai incontrato prima. Si tratta di un approccio che potrebbe colmare il divario tra il rapido miglioramento dei modelli di intelligenza artificiale e le effettive capacità dei robot, in quanto non richiede un ulteriore addestramento complesso e costoso.

Per sviluppare il sistema, i ricercatori della New York University e di Meta hanno testato Stretch, un robot disponibile in commercio prodotto da Hello Robot e composto da un’unità a ruote, un’asta alta e un braccio retrattile, in un totale di 10 stanze di cinque case.

Mentre si trova in una stanza con il robot, un ricercatore scansiona l’ambiente circostante usando Record3D, un’applicazione per iPhone che utilizza il sistema lidar del telefono per riprendere un video 3D da condividere con il robot.

Il sistema OK-Robot ha quindi eseguito un modello di rilevamento di oggetti AI open-source sui fotogrammi del video. Questo, in combinazione con altri modelli open-source, ha aiutato il robot a identificare gli oggetti presenti nella stanza, come un drago giocattolo, un tubetto di dentifricio e un mazzo di carte da gioco, nonché i luoghi della stanza, tra cui una sedia, un tavolo e un cestino.

Il team ha poi istruito il robot a prendere un oggetto specifico e a spostarlo in una nuova posizione. Il braccio a tenaglia del robot è riuscito a farlo nel 58,5% dei casi; il tasso di successo è salito all’82% nelle stanze meno ingombre. (La ricerca non è ancora stata sottoposta a revisione paritaria).

Il recente boom dell’intelligenza artificiale ha portato a enormi progressi nelle capacità linguistiche e di visione computerizzata, consentendo ai ricercatori di robotica di accedere a modelli e strumenti di intelligenza artificiale open-source che non esistevano nemmeno tre anni fa, afferma Matthias Minderer, ricercatore senior di visione computerizzata presso Google DeepMind, che non era coinvolto nel progetto.

“Direi che è piuttosto insolito affidarsi completamente a modelli non disponibili e che è piuttosto impressionante farli funzionare”, afferma.

“Abbiamo assistito a una rivoluzione nell’apprendimento automatico che ha reso possibile la creazione di modelli che funzionano non solo in laboratorio, ma anche nel mondo aperto”, aggiunge. “Vedere che funziona davvero in un ambiente fisico reale è un’informazione molto utile”.

Poiché il sistema dei ricercatori utilizzava modelli non adattati a questo particolare progetto, quando il robot non riusciva a trovare l’oggetto che gli era stato chiesto di cercare, si fermava semplicemente sulle sue tracce invece di cercare una soluzione. Questa significativa limitazione è una delle ragioni per cui il robot ha avuto più probabilità di successo in ambienti più ordinati: meno oggetti significa meno possibilità di confusione e uno spazio più chiaro per la navigazione.

L’uso di modelli open-source già pronti è stato sia una benedizione che una maledizione, afferma Lerrel Pinto, assistente alla cattedra di informatica della New York University, che ha collaborato al progetto.

“Il lato positivo è che non è necessario fornire al robot ulteriori dati di addestramento nell’ambiente, funziona e basta”, spiega. “Il lato negativo è che può solo prendere un oggetto e lasciarlo cadere da un’altra parte. Non si può chiedergli di aprire un cassetto, perché sa fare solo queste due cose”.

La combinazione di OK-Robot con modelli di riconoscimento vocale potrebbe consentire ai ricercatori di impartire istruzioni semplicemente parlando al robot, rendendo più facile la sperimentazione con insiemi di dati facilmente reperibili, afferma Mahi Shafiullah, dottorando presso la New York University che ha co-diretto la ricerca.

“C’è una sensazione molto diffusa nella comunità [robotica] che le case siano difficili, i robot siano difficili e che combinare case e robot sia del tutto impossibile”, dice. “Penso che quando la gente inizierà a credere che i robot domestici sono possibili, ci saranno molti più lavori che inizieranno ad essere svolti in questi spazi”.