Un sistema di visione a reti neurali per le industrie reggiane

Un industria Reggio Emilia facilita la transizione digitale delle PMI sviluppando un sistema che affianca le tecniche di computer vision tradizionali alle nuove tecnologie del machine learning e deep learning per risolvere problemi complessi

di M. Strianese, A. Parmeggiani, G. Sereni

Il Digital Automation Lab (DAL) è una fabbrica dimostrativa delle tecnologie e processi di manifattura digitale. È focalizzato sull’automazione e robotica, trasversale a tutte le imprese manifatturiere per poter raggiungere il maggior numero di imprese. 

Lo scopo è facilitare la transizione verso la manifattura digitale delle Piccole Medie Imprese, accompagnandole, facendo vedere le applicazioni in pratica e abbattendo le resistenze al cambiamento. Il Laboratorio DAL è parte del più ampio progetto del Distretto Digitale, ideato e coordinato da Unindustria Reggio Emilia, che accompagna le aziende verso la trasformazione digitale, operando su più livelli, quali formazione tecnica e professionalizzante, orientamento degli studenti, nuove lauree e nuove imprese.  

In questo scenario abbiamo rilevato che le imprese manifestavano sia l’esigenza di avere macchine connesse e quindi di digitalizzare i flussi in stabilimento sia l’esigenza di avere automazione flessibile.

Automazione flessibile per gestire la variabilità tipica delle PMI che operano entro catene di fornitura dove il sub-contractor deve adeguarsi alle esigenze della filiera, guidate dal committente finale. In questo contesto l’esperienza di questi primi mesi di operatività del Digital Automation Lab ci ha indicato che i sistemi di visione sono un elemento chiave per rispondere alle esigenze delle imprese. 

Nelle moderne industrie vi sono robot che eseguono compiti in maniera ripetitiva e automatica. Se prendiamo come esempio la classica operazione di prelievo e deposito di un pezzo (in gergo pick & place), il manipolatore effettua operazioni su oggetti il cui ordine di arrivo e posizione sulla postazione di presa è noto a priori. Questo la rende una applicazione rigida, infatti avendo un robot hard-coded, non appena cambia l’ordine di arrivo o la posizione degli oggetti, non è più possibile eseguire il task. 

Negli impianti manufatturieri, la customizzazione sta diventando sempre più importante, per cui è fondamentale sviluppare soluzioni flessibili e facilmente riconfigurabili per affrontare queste sfide. Per queste ragioni il mondo della robotica ha visto negli ultimi anni diventare dominante il tema della guida robot basata su sistemi di visione artificiale e algoritmi di AI

Il vantaggio di avere un sistema di visione è proprio quello di guidare il robot in base ai diversi oggetti che vengono rilevati, senza la necessità che essi arrivino sulla linea di produzione in un predeterminato ordine o posizione. Questo abilita una catena produttiva flessibile, in quanto grazie all’AI il robot diventa consapevole di ciò che deve manipolare e in grado di regolare l’azione di controllo dinamicamente. 

Le attività di ricerca e sviluppo che nascono ogni giorno nei centri di ricerca e nelle università permetteranno di integrare sempre più i sistemi di visione con i robot presenti sulla linea produttiva, sia a livello di sistema (elettronico e meccanico) che a livello di software di gestione e controllo del robot. Alcuni esempi di queste integrazioni sono citati in ricerche pubblicate dal titolo ‘Robot Grasp Detection using Deep Convolutional Neural Networks‘ e ‘A Cost-Effective Person-Following System For Assistive Unmanned Vehicles with Deep Learning at the Edge‘. 

Nella prima, i ricercatori stanno sviluppando sistemi che forniscano in output al manipolatore direttamente le coordinate dell’end effector necessarie per afferrare l’oggetto, e non soltanto la tipologia di pezzo rilevato. Anche nel campo della robotica mobile si stanno cercando di integrare sistemi di visione. La seconda ricerca citata dimostra lo sviluppo di un sistema di controllo in grado di sfruttare le informazioni che arrivano da una telecamera, regolando la velocità del robot a seconda della distanza dello stesso da una persona, con il task di seguirla (person following system).  

Presso il Digital Automation Lab a Reggio Emilia è stato sviluppato un primo prototipo di sistema di guida robot basato su sistemi di visione artificiali. Lo scopo di questo sistema di guida è quello di identificare oggetti (e.g. solidi di diverso colore e forma) posizionati su un vassoio, determinandone la posizione e l’orientamento nello spazio. Il sistema è formato da una camera RGBD, un PC embedded specifico per applicazioni di computer vision e per la risoluzione di problemi di AI e da un robot collaborativo (cobot, Fig.1). 

Fig. 1 Sistema di visione DAL

Il sistema di visione acquisisce un’immagine del piano di lavoro (e.g. circa 20-30 volte al secondo) e determina le coordinate di prelievo di tutti i pezzi presenti sul vassoio, indicando anche l’orientamento spaziale. Una volta calcolate, le coordinate degli oggetti vengono inviate al controller del braccio robotico, il quale calcolate le traiettorie di movimentazione, può iniziare il classico ciclo di prelievo e deposito (i.e. pick and place).

Questo approccio alla guida robot, basato sulla visione artificiale, rappresenta un cambio di paradigma tecnologico fondamentale: se fino ad oggi i robot erano entità cieche, in grado di eseguire una serie di movimentazioni in maniera rigida e determinata, attraverso la computer vision diventano oggetti molto più flessibili in grado di adattarsi alle condizioni di lavoro e all’ambiente in cui si trovano.

Prendendo come esempio pratico il caso di studio sviluppato all’interno del Digital Automation Lab, è possibile notare come, prima dell’introduzione del sistema di visione il robot poteva eseguire il prelievo dei blocchi esclusivamente da posizioni fisse (e.g. le posizioni vengono impostate in fase di programmazione iniziale), al contrario introducendo un sistema di guida basato su visione artificiale e reti neurali, rendiamo il robot in grado di adattarsi dinamicamente alla posizione dei pezzi (e.g. il robot può prelevare pezzi sparsi in posizioni non pre-determinate e dinamiche). 

Il riconoscimento oggetti avviene indipendentemente dalle condizioni di luce ambientale, colore o forma dell’oggetto.  Questo fornisce la possibilità di effettuare anche un controllo qualità, notando immediatamente se un pezzo sul vassoio presenta un difetto, indipendentemente da quale esso sia. Le immagini in Fig. 2 mostrano il sistema di visione in azione, in cui viene rilevato il centro dei vari oggetti e la tipologia in due postazioni differenti.

Fig 2 Riconoscimento oggetti DAL

Attraverso gli algoritmi di object detection riusciamo ad accedere ad informazioni come il tipo di oggetto rilevato, le sue dimensioni, il suo baricentro o il suo orientamento; informazioni necessarie per localizzare con precisione il solido nello spazio

In questo modo è possibile utilizzare i dati di posizionamento rilevati con il sistema di visione e implementare una comunicazione tra sistema di visione e robot. Il caso studio è stato sviluppato sfruttando il metodo del transfer learning, in cui viene utilizzata un’architettura di rete neurale già esistente ed allenata per risolvere un problema specifico. In questo caso il training è stato effettuato su un dataset contenente i diversi oggetti in posizioni differenti sul vassoio.

Affiancando le tecniche di computer vision tradizionali alle nuove tecnologie del machine learning e deep learning è possibile sviluppare algoritmi di visione più sofisticati. Benchè basati su principi teorici e algoritmi completamente diversi, nella pratica industriale questi tre campi non sono indipendenti uno dall’altro, ma vengono impiegati in modo complementare per risolvere problemi complessi. 

Nella computer vision tradizionale, l’immagine viene processata applicandole diverse classi di algoritmi con il fine di estrarre informazioni utili da essa, come il rilevamento di contorni o il riconoscimento di oggetti. In questo caso è necessario determinare le corrette tecniche di image processing da applicare per affrontare il problema di interesse. La complessità e la vastità delle problematiche che ricadono sotto al cappello della visione artificiale è così ampia che non sempre è possibile risolverli in modo robusto sfruttando solamente la classe di algoritmi e tecniche inerenti alla computer vision tradizionale. 

Combinando insieme le moderne tecniche di intelligenza artificiale e le classiche tecniche di computer vision, si è potuti arrivare alla risoluzione di problemi prima non risolvibili. In questi sistemi vengono adottate delle tecniche di tipo data-driven, dove le features rappresentative del task da eseguire vengono estratte direttamente dal dataset, formato da migliaia o milioni di immagini del problema da affrontare. Nel machine learning si definiscono queste features a priori, mentre nel deep learning vengono apprese dal modello esclusivamente a partire dai dati in input che gli si forniscono. 

Il grande vantaggio dell’AI consiste in una maggiore robustezza dell’algoritmo, in quanto vengono sfruttate caratteristiche che descrivono completamente il problema da risolvere (e.g. classificazione o localizzazione oggetti); di conseguenza, il sistema sviluppato sarà indipendente dall’ambiente in cui sarà messo in funzione e garantirà sempre delle ottime performance.

Negli ultimi anni, grazie all’aumento delle prestazioni dei dispositivi hardware e di enormi quantità di dati (Big Data), l’AI ha contribuito e sta contribuendo notevolmente al progresso tecnologico, fornendo la possibilità di progettare sistemi sempre più complessi ed intelligenti. Questo sta avvenendo in maniera trasversale e, soprattutto, a livello industriale sia nei sistemi di visione che in molte altre applicazioni che comporteranno un cambiamento radicale degli impianti manufatturieri, rendendoli sempre più automatizzati.

Il Digital Automation Lab sta progettando un’estensione delle attrezzature per dotarsi di alcune stazioni con sistemi di visione attrezzati di software, sensori, ottiche, illuminatori per poter supportare le imprese nella definizione delle isole di automazione dotate del senso della vista. Grazie al laboratorio le imprese potranno sperimentare i sistemi di visione in modalità ‘test-before-invest’ quindi prima di dover effettuare investimenti in tecnologie e competenze.  

(lo)

Related Posts
Total
0
Share