ALAN FERN VIA TWITTER

I ricercatori hanno insegnato ai robot a correre. Ora stanno insegnando loro a camminare

I robot potrebbero dover diventare più noiosi per essere utili.

Negli ultimi anni abbiamo visto tutti video che dimostrano quanto siano diventati agili i robot umanoidi, che corrono e saltano con facilità. Non siamo più sorpresi da questo tipo di agilità, anzi, abbiamo imparato ad aspettarcela.

Il problema è che queste dimostrazioni scintillanti mancano di applicazioni reali. Quando si tratta di creare robot utili e sicuri per gli esseri umani, le basi del movimento sono più importanti. Di conseguenza, i ricercatori stanno utilizzando le stesse tecniche per addestrare i robot umanoidi a raggiungere obiettivi molto più modesti.

Alan Fern, professore di informatica presso l’Oregon State University, e un gruppo di ricercatori hanno addestrato con successo un robot umanoide chiamato Digit V3 a stare in piedi, camminare, raccogliere una scatola e spostarla da una posizione all’altra. Nel frattempo, un altro gruppo di ricercatori dell’Università della California, Berkeley, si è concentrato sull’insegnamento a Digit a camminare in ambienti sconosciuti e a trasportare carichi diversi, senza rovesciarsi. La loro ricerca è pubblicata oggi su Science Robotics.

Entrambi i gruppi utilizzano una tecnica di intelligenza artificiale chiamata apprendimento di rinforzo sim-to-real, un metodo sempre più diffuso per addestrare robot a due zampe come Digit. I ricercatori ritengono che questo metodo porterà a macchine a due zampe più robuste e affidabili, in grado di interagire con l’ambiente circostante in modo più sicuro e di imparare molto più rapidamente.

L’apprendimento per rinforzo da simulazione a realtà prevede l’addestramento di modelli di intelligenza artificiale per completare determinati compiti in ambienti simulati miliardi di volte prima che un robot alimentato dal modello tenti di completarli nel mondo reale. Ciò che un robot impiegherebbe anni per imparare nella vita reale può richiedere solo pochi giorni grazie a ripetuti test di prova ed errore nelle simulazioni.

Una rete neurale guida il robot utilizzando una funzione di ricompensa matematica, una tecnica che premia il robot con un numero elevato ogni volta che si avvicina alla sua posizione di destinazione o completa il suo comportamento. Se fa qualcosa che non dovrebbe fare, come cadere, viene “punito” con un numero negativo, così impara a evitare questi movimenti nel tempo.

In progetti precedenti, i ricercatori dell’Università dell’Oregon avevano utilizzato la stessa tecnica di apprendimento per insegnare a correre a un robot a due zampe di nome Cassie. L’approccio ha dato i suoi frutti: Cassie è diventato il primo robot a correre un percorso di 5 km all’aperto, prima di stabilire il Guinness World Record per il robot bipede più veloce a correre per 100 metri e di padroneggiare la capacità di saltare da una posizione all’altra con facilità.

Per addestrare i robot a comportarsi in modo atletico è necessario sviluppare abilità molto complesse in ambienti molto ristretti, spiega Ilija Radosavovic, dottorando a Berkleley che ha addestrato Digit a trasportare un’ampia gamma di carichi e a stabilizzarsi quando viene colpito da un bastone. “Noi siamo all’opposto: ci concentriamo su abilità piuttosto semplici in ambienti ampi”.

Questa nuova ondata di ricerca nella robotica umanoide è meno interessata alla velocità e all’abilità e si concentra maggiormente sulla capacità di rendere le macchine robuste e in grado di adattarsi, che è in definitiva ciò che serve per renderle utili nel mondo reale. I robot umanoidi restano una relativa rarità negli ambienti di lavoro, perché spesso faticano a stare in equilibrio mentre trasportano oggetti pesanti. Per questo motivo la maggior parte dei robot progettati per sollevare oggetti di vario peso in fabbriche e magazzini tende ad avere quattro gambe o basi più grandi e stabili. Ma i ricercatori sperano di cambiare questa situazione rendendo i robot umanoidi più affidabili grazie alle tecniche di intelligenza artificiale.

L’apprendimento per rinforzo inaugurerà un “nuovo modo, molto più flessibile e veloce, di addestrare questo tipo di abilità di manipolazione”, afferma Fern. Fern e il suo team presenteranno i loro risultati all’ICRA, la Conferenza Internazionale sulla Robotica e l’Automazione, che si terrà in Giappone il mese prossimo.

L’obiettivo finale è che un essere umano possa mostrare al robot un video del compito desiderato, come prendere una scatola da uno scaffale e spingerla su un altro scaffale più alto, e che il robot lo esegua senza richiedere ulteriori istruzioni, spiega Fern.

Riuscire a far sì che i robot osservino, copino e apprendano rapidamente questo tipo di comportamenti sarebbe davvero utile, ma rimane una sfida, afferma Lerrel Pinto, professore assistente di informatica alla New York University, che non ha partecipato alla ricerca. “Se si riuscisse a farlo, ne sarei molto colpito”, afferma. “Si tratta di problemi difficili”.

Related Posts
Total
0
Share