Uno studio rafforza l’ipotesi che cervello umano e sistemi di IA possano superare problemi in maniera simile.
di Jackie Snow
Gli algoritmi per la visione artificiale non sono l’unica forma di “intelligenza” a cadere nella trappola delle foto ritoccate.
Un gruppo di ricercatori ha utilizzato una IA per creare immagini capaci di ingannare sia gli esseri umani che gli algoritmi di visione artificiale. L’immagine a lato, ad esempio, presenta la foto non ritoccata di un gatto (a sinistra) e una versione alterata (a destra) per ricordare maggiormente un cane.
Per il bene della Scienza! L’identificazione di punti deboli nelle capacità dell’uomo potrebbero contribuire al miglioramento dei sistemi di IA. Nel paper dedicato a questa ricerca – sviluppata anche con il contributo di Ian Goodfellow, il creatore dei generatori di reti avversari (GAN) – i ricercatori descrivono come l’individuazione di particolari classi di immagini distorte che non riescono a illudere il cervello umano potrebbe dimostrare l’esistenza di un “meccanismo simile” per gli algoritmi di apprendimento automatico. La maggior parte dei sistemi di intelligenza artificiale si ispira vagamente al cervello umano, d’altronde.
Una ricerca significativa: considerata la facilità con cui è possibile ingannare i sistemi di visione artificiale, l’esistenza dei cosiddetti esempi avversari rappresenta un problema reale. Senza prima aver trovato una soluzione che permetta alle automobili a guida autonoma di rilevare ciascun cartello stradale, ad esempio, difficilmente assisteremo alla loro introduzione in tempi brevi.