L’addestramento dei nuovi algoritmi si baserà sull’autoapprendimento, senza intervento degli esperti umani.
di Will Douglas Heaven
Il ricercatore di intelligenza artificiale presso Uber, Rui Wang ama lasciare il Paired Open Ended Trailblazer, un software che ha contribuito a sviluppare, in esecuzione sul suo laptop durante la notte. POET è una specie di palestra di addestramento per robot virtuali. Finora, non stanno imparando a fare molto. Questi agenti di intelligenza artificiale non stanno giocando a Go, né individuando segnali di un eventuale cancro o ripiegando proteine, ma stanno semplicemente cercando di navigare in un crudo paesaggio da cartone animato di recinzioni e burroni senza cadere. (si veda link)
Ma non è quello che stanno imparando i robot a essere interessante, ma come stanno imparando. POET genera i percorsi a ostacoli, valuta le abilità dei robot e assegna loro la prossima sfida, il tutto senza che ci sia coinvolgimento umano. Passo dopo passo, i bot migliorano per tentativi ed errori. “Ad un certo punto potrebbe saltare da un dirupo come un maestro di kung fu”, dice Wang.
Può sembrare poca cosa al momento, ma per Wang e un gruppo di altri ricercatori, POET suggerisce un nuovo modo rivoluzionario per arrivare a macchine superintelligenti, facendo in modo che l’intelligenza artificiale crei se stessa. Il suo ex collega, Jeff Clune, è tra i maggiori promotori di questa idea, e ci sta lavorando da anni, prima all’Università del Wyoming e poi a Uber AI Labs, dove ha collaborato con Wang e altri. Ora divide il suo tempo tra l’Università della British Columbia e OpenAI e ha a disposizione uno dei migliori laboratori di AI al mondo.
Clune definisce il tentativo di costruire un’AI veramente intelligente la ricerca scientifica più ambiziosa della storia umana e POET potrebbe indicare una scorciatoia. Se ha ragione, questo sistema potrebbe essere un passo importante sulla strada che un giorno porterà all’intelligenza artificiale generale (AGI), vale a dire macchine in grado di superare gli umani. A breve termine, la tecnica potrebbe anche aiutarci a scoprire diversi tipi di intelligenze non umane che possono trovare soluzioni in modi inaspettati e forse integrare la nostra intelligenza piuttosto che sostituirla.
Imitando l’evoluzione
Ho parlato per la prima volta con Clune dell’idea all’inizio dello scorso anno, solo poche settimane dopo il suo passaggio a OpenAI. Era felice di discutere del lavoro passato, ma è rimasto a bocca chiusa su ciò che stava facendo con il sua nuovo team. Invece di rispondere alla chiamata dall’interno dell’azienda, ha preferito camminare su e giù per le strade fuori dagli uffici mentre parlavamo.
Tutto quello che Clune diceva era che OpenAI rappresentava una buona scelta. Pochi mesi dopo il suo ingresso, l’azienda ha assunto anche la maggior parte del suo gruppo di lavoro a Uber. L’ambiziosa visione di Clune è fondata su qualcosa di più dell’investimento di OpenAI. La storia dell’AI è piena di esempi in cui le soluzioni progettate dall’uomo hanno lasciato il posto a quelle apprese dalle macchine. Prendiamo la visione artificiale: dieci anni fa, il grande passo avanti nel riconoscimento delle immagini è arrivato quando i sistemi artigianali esistenti sono stati sostituiti da altri che hanno imparato da zero.
Una degli aspetti più affascinanti dell’AI, e in particolare dell’apprendimento automatico, è la sua capacità di trovare soluzioni che gli umani non hanno ancora intravisto. Un esempio spesso citato è AlphaGo (e il suo successore AlphaZero), che ha battuto i migliori giocatori umani a Go, impiegando strategie apparentemente aliene. Dopo centinaia di anni di studio da parte di maestri umani, l’AI ha trovato soluzioni a cui nessuno aveva mai pensato.
Clune sta ora lavorando con un team di OpenAI che ha sviluppato bot che, nel 2018, hanno imparato a giocare a nascondino in un ambiente virtuale nel 2018. Queste AI all’inizio si sono poste obiettivi semplici da raggiungere: una coppia doveva nascondersi dietro ostacoli mobili. Tuttavia, quando questi robot sono stati lasciati liberi di imparare, hanno presto trovato modi per sfruttare il loro ambiente in modi che i ricercatori non avevano previsto. Hanno sfruttato anomalie nella fisica simulata del loro mondo virtuale per saltare e persino attraversare i muri.
Questi tipi di comportamenti inaspettati indicano che l’intelligenza artificiale potrebbe arrivare a soluzioni tecniche a cui gli umani non penserebbero da soli, inventando nuovi e più efficienti tipi di algoritmi o reti neurali, o addirittura abbandonando completamente le reti neurali, una pietra angolare dell’intelligenza artificiale moderna.
“Il dato interessante di questo approccio è che sappiamo che può funzionare”, afferma. “Il semplicissimo algoritmo dell’evoluzione darwiniana ha prodotto il nostro cervello, che rappresenta l’algoritmo di apprendimento più intelligente dell’universo finora noto”. Il suo punto è che se l’intelligenza come la conosciamo è il risultato della mutazione irragionevole dei geni nel corso di innumerevoli generazioni, perché non cercare di replicare il processo di produzione dell’intelligenza, che è probabilmente più semplice, piuttosto che l’intelligenza stessa?
L’intelligenza, però, non è mai stata un punto di arrivo per l’evoluzione, qualcosa a cui mirare, ma è emersa in molte forme diverse da innumerevoli piccole soluzioni a sfide che hanno permesso agli esseri viventi di sopravvivere e affrontare sfide future. L’intelligenza è l’attuale punto culminante di un processo continuo e aperto. In questo senso, l’evoluzione è molto diversa dagli algoritmi nel modo in cui le persone li considerano tipicamente, come mezzi per un fine.
È questa apertura, intravista nella sequenza apparentemente senza scopo di sfide generata da POET, che Clune e altri credono possa portare a nuovi tipi di intelligenza artificiale. Per decenni i ricercatori di intelligenza artificiale hanno cercato di costruire algoritmi per imitare l’intelligenza umana, ma la vera svolta potrebbe venire dalla creazione di algoritmi che cercano di imitare la risoluzione dei problemi nel tempo dell’evoluzione e guardare cosa emerge.
I ricercatori stanno già addestrando l’apprendimento automatico a trovare soluzioni ad alcuni dei problemi più difficili del campo come, per esempio, realizzare macchine in grado di apprendere più di un compito alla volta o far fronte a situazioni che non hanno mai incontrato prima. Alcuni ora pensano che adottare questo approccio e seguirlo potrebbe essere il percorso migliore per l’intelligenza artificiale generale. “Potremmo avviare un algoritmo che inizialmente non ha molta intelligenza al suo interno e osservare il suo percorso autonomo fino all’AGI”, afferma Clune.
La verità è che per ora l’AGI rimane una fantasia, in gran parte perché nessuno sa come arrivarci. I progressi nell’intelligenza artificiale sono frammentari e realizzati dagli esseri umani, con modifiche progressive a tecniche o algoritmi esistenti, producendo salti incrementali in termini di prestazioni o accuratezza. Clune li descrive come tentativi di scoprire gli elementi costitutivi dell’intelligenza artificiale senza sapere cosa si sta cercando o quanti passaggi saranno necessari. E siamo solo all’inizio. “A un certo punto, dovremo assumerci l’arduo compito di metterli tutti insieme”, dice.
Chiedere all’intelligenza artificiale di trovare e assemblare gli elementi costitutivi per noi è un cambiamento di paradigma. Anche se l’AGI non viene mai raggiunta, il sistema di autoapprendimento potrebbe comunque cambiare il tipo di intelligenza artificiale creata. Il mondo ha bisogno di qualcosa di più di un ottimo giocatore di Go, dice Clune, che immagina una macchina per insegnare a un robot a camminare, poi a giocare a campana, poi magari a giocare a Go e infine a inventarsi nuove sfide. “Il sistema innova continuamente e il cielo è il limite in termini di dove potrebbe andare”, spiega.
Come creare un cervello
Esistono molti modi diversi per cablare un cervello artificiale. Le reti neurali sono costituite da più strati di neuroni artificiali codificati nel software e collegati tra loro. Il modo in cui è cablata una rete neurale fa una grande differenza e le nuove architetture spesso portano a nuove scoperte. Le reti neurali codificate dagli scienziati umani sono spesso il risultato di tentativi ed errori. C’è poca teoria su cosa funziona e cosa non funziona, e nessuna garanzia che siano stati trovati i migliori progetti. Ecco perché automatizzare la ricerca delle soluzioni più avanzate di reti neurali è stato uno degli argomenti più scottanti nell’AI almeno dagli anni 1980.
Il modo più comune per automatizzare il processo è consentire a un’intelligenza artificiale di generare molti possibili progetti di rete e lasciare che la rete provi automaticamente ciascuno di essi e scelga i migliori. Questo è comunemente noto come neuro-evoluzione o ricerca di architettura neurale (NAS). Negli ultimi anni, questi progetti di macchine hanno iniziato a superare quelli umani. Nel 2018, Esteban Real e i suoi colleghi di Google hanno utilizzato il NAS per generare una rete neurale per il riconoscimento delle immagini che batteva le migliori reti progettate dall’uomo dell’epoca. È stata una rivelazione.
Il sistema del 2018 fa parte di un progetto Google in corso chiamato AutoML, che ha utilizzato NAS anche per produrre EfficientNets, una famiglia di modelli di deep learning che sono più efficienti di quelli progettati dall’uomo, con elevati livelli di precisione nelle attività di riconoscimento delle immagini con modelli più piccoli e rapidi. A tre anni di distanza, Real sta spingendo avanti i confini di ciò che può essere generato da zero mentre i sistemi precedenti riorganizzavano solo pezzi di rete neurale collaudati, come i tipi esistenti di livelli o componenti.
L’anno scorso, il nuovo sistema, chiamato AutoML Zero, ha cercato di costruire un’intelligenza artificiale da zero utilizzando nient’altro che i concetti matematici più basilari che governano l’apprendimento automatico. Sorprendentemente, non solo AutoML Zero ha creato spontaneamente una rete neurale, ma ha anche utilizzato la discesa del gradiente, la tecnica matematica più comune sfruttata dai progettisti umani per addestrare una rete. “Sono rimasto piuttosto sorpreso”, dice Real. “È un algoritmo molto semplice, richiede circa sei righe di codice, ma il sistema ha scritto le sei righe con una precisione assoluta”.
È ora di cambiare il formatore
I cervelli delle macchine non imparano come fanno i nostri, che sono fantastici nell’adattarsi a nuovi ambienti e compiti. Le AI di oggi possono risolvere le sfide in determinate condizioni, ma falliscono quando tali condizioni cambiano anche solo di poco. Questa mancanza di elasticità sta ostacolando la ricerca di creare un’AI più generalizzabile che possa essere utile in un’ampia gamma di scenari, il che sarebbe un grande passo avanti per rendere i sistemi veramente intelligenti.
Per Jane Wang, ricercatrice presso DeepMind a Londra, il modo migliore per rendere l’AI più flessibile è farle affrontare compiti che richiedono adattabilità. Wang pensa che spingere l’AI a risolvere questi problemi da sola eviti alcuni tentativi ed errori di un approccio preordinato, in quanto “non possiamo assolutamente aspettarci di imbatterci subito nella risposta giusta”.
Esistono due strategie principali per generare automaticamente algoritmi di apprendimento, ma entrambe iniziano con una rete neurale esistente e utilizzano l’intelligenza artificiale per portarla avanti.
La prima, elaborata separatamente da Wang e dai suoi colleghi di DeepMind e da un team di OpenAI all’incirca nello stesso periodo, utilizza reti neurali ricorrenti. Questo tipo di rete può essere addestrata in modo tale che le attivazioni dei neuroni, all’incirca simili all’attivazione dei neuroni nei cervelli biologici, codifichino qualsiasi tipo di algoritmo. DeepMind e OpenAI ne hanno approfittato per addestrare una rete neurale ricorrente per generare algoritmi di apprendimento per rinforzo, che dicono a un’intelligenza artificiale come comportarsi per raggiungere determinati obiettivi.
Il risultato è che i sistemi di DeepMind e OpenAI non apprendono un algoritmo che risolve una sfida specifica, come il riconoscimento delle immagini, ma acquisiscono un algoritmo di apprendimento che può essere applicato a più attività e si adatta man mano che procede. È come il vecchio adagio sull’insegnare a qualcuno a pescare: mentre un algoritmo progettato a mano può apprendere un compito particolare, queste AI vengono create per imparare ad apprendere da sole. E alcune di loro si comportano meglio di quelle progettate dall’uomo.
La seconda strategia è stata ideata da Chelsea Finn dell’Università della California, a Berkeley, e dai suoi colleghi. Il MAML, o meta apprendimento indipendente dal modello, addestra un modello utilizzando due processi di apprendimento automatico, uno interno all’altro.
Approssimativamente, funziona in questo modo. Il processo interno in MAML viene addestrato sui dati e quindi testato, con i metodi tradizionali. Ma poi il modello esterno prende le prestazioni del modello interno – per esempio la capacità di identificare le immagini – e le usa per imparare a regolare l’algoritmo di apprendimento di quel modello per aumentarne le prestazioni.
Attraverso queste strategie, i ricercatori stanno costruendo un’AI più solida, più generalizzata e in grado di apprendere più velocemente con meno dati. Per esempio, Finn vuole che un robot abile a camminare su un terreno pianeggiante riesca, con un addestramento minimo, a muoversi su un pendio o sull’erba mentre trasporta un carico.
L’anno scorso, Clune e i suoi colleghi hanno esteso la tecnica di Finn per progettare un algoritmo che apprende utilizzando meno neuroni in modo da non sovrascrivere tutto ciò che ha appreso in precedenza, un grosso problema irrisolto nell’apprendimento automatico noto come dimenticanza catastrofica.
Un modello addestrato che utilizza meno neuroni, noto come modello “sparso”, avrà più neuroni inutilizzati rimasti da dedicare a nuovi compiti una volta riqualificato, il che significa che meno neuroni “usati” verranno sovrascritti. Clune ha scoperto che impostare la sua intelligenza artificiale nella sfida di apprendere più di un compito lo ha portato a creare una propria versione di un modello sparso che ha superato quelli progettati dall’uomo.
Se ci impegniamo a lasciare che l’intelligenza artificiale crei e apprenda in autonomia, anche l’intelligenza artificiale dovrebbe generare i propri ambienti di formazione: le scuole, i libri di testo e i piani di lezione. L’anno scorso sono stati presentati una serie di progetti in cui l’intelligenza artificiale è stata addestrata su dati generati automaticamente. I sistemi di riconoscimento facciale, per esempio, vengono addestrati con volti generati dall’intelligenza artificiale. Le AI stanno anche imparando ad allenarsi a vicenda. In un esempio recente, due bracci robotici hanno collaborato, con un braccio che impilava file e l’altro afferrava oggetti.
In effetti, Clune si chiede se l’intuizione umana sul tipo di dati di cui ha bisogno un’intelligenza artificiale per apprendere possa essere sbagliata. Per esempio, lui e i suoi colleghi hanno sviluppato quelle che lui chiama reti di insegnamento generativo, che apprendono quali dati devono generare per ottenere i migliori risultati durante l’addestramento di un modello. In un esperimento, ha utilizzato una di queste reti per adattare un set di dati di numeri scritti a mano che viene spesso utilizzato per addestrare algoritmi di riconoscimento delle immagini.
Quello che ne è uscito sembrava molto diverso dal set di dati originale curato dall’uomo: centinaia di cifre, alcune non complete e difficili da decifrare, come la metà superiore della cifra sette o quelle che sembravano due cifre unite insieme. Nonostante ciò, i dati generati dall’intelligenza artificiale hanno comunque svolto un ottimo lavoro nell’addestrare il sistema di riconoscimento della scrittura a mano a identificare le cifre effettive.
Non serve il successo immediato
I dati generati dall’intelligenza artificiale sono ancora solo una parte del puzzle. La visione a lungo termine è quella di prendere tutte queste tecniche, e altre non ancora disponibili, e consegnarle a un trainer di intelligenza artificiale che controlla come sono cablati i cervelli artificiali, come vengono addestrati e su cosa. Anche Clune non è chiaro su come si prospetta un simile sistema futuro. La cosa più vicina è ancora POET, il sistema creato da Clune con Rui Wang di Uber e altri.
POET, dice Wang, nasce da un paradosso: se si prova a risolvere un problema si fallisce, se non si prova, il successo è più probabile. Questa è una delle intuizioni che Clune trae dalla sua analogia con l’evoluzione, nel senso che i risultati sorprendenti che emergono da un processo apparentemente casuale spesso non possono essere ricreati facendo passi deliberati verso un determinato fine. Non c’è dubbio che le farfalle esistano, ma se si volesse tornare ai loro precursori unicellulari e provare a crearli da zero ripercorrendo tutti i passaggi dal batterio all’insetto, probabilmente si fallirebbe.
L’agente software di POET si trova all’inizio in un ambiente pianeggiante, senza ostacoli, ma non sa camminare. Attraverso tentativi ed errori, l’algoritmo di apprendimento per rinforzo che lo controlla impara a muoversi. POET allora genera un nuovo ambiente casuale che è diverso, ma non necessariamente più complesso. Se ci sono ostacoli in questo nuovo ambiente, l’agente impara come superarli. Ogni volta che un agente riesce o si blocca, viene spostato in un nuovo ambiente. Nel corso del tempo, gli agenti imparano una serie di movimenti che consentono loro di affrontare percorsi a ostacoli sempre più difficili. Il team ha scoperto che il cambio casuale degli ambienti era essenziale.
Per esempio, gli agenti a volte imparavano a camminare su un terreno pianeggiante con uno strano passo strascicato, quasi sulle ginocchia. “Non imparano mai a stare in piedi perché non ne hanno bisogno”, dice Wang. Ma dopo essere stati costretti ad apprendere strategie alternative su un terreno disseminato di ostacoli, ritornavano alla fase iniziale con un modo migliore di camminare.
POET addestra i suoi robot in un modo che nessun essere umano farebbe: prende percorsi irregolari e poco intuitivi per il successo. In ogni fase, i bot cercano di trovare una soluzione a qualunque sfida si trovino davanti. Facendo fronte a una selezione casuale di ostacoli lanciati sulla loro strada, migliorano complessivamente. Ma non c’è un punto finale in questo processo, nessun test finale da superare o un punteggio da battere.
Clune, Wang e un certo numero di loro colleghi credono che questa sia una profonda intuizione. Ora stanno esplorando cosa potrebbe significare per lo sviluppo di macchine superintelligenti. Non tracciare un percorso specifico potrebbe effettivamente essere un passo avanti chiave sulla strada dell’intelligenza artificiale generale?
POET sta già ispirando altri ricercatori, come Natasha Jaques e Michael Dennis dell’Università della California, a Berkeley, che hanno sviluppato un sistema chiamato PAIRED, in cui l’intelligenza artificiale viene utilizzata per generare una serie di labirinti per addestrare un’altra intelligenza artificiale a esplorarli.
Rui Wang pensa che le sfide progettate dall’uomo rappresenteranno un collo di bottiglia e che i reali progressi richiederanno che l’AI elabori una propria strategia. “Non importa quanto siano validi gli algoritmi oggi, vengono sempre testati su alcuni benchmark progettati a mano”, afferma. “È molto difficile immaginare che l’intelligenza artificiale generale derivi da questo, perché è vincolata da obiettivi prefissati”.
Un nuovo tipo di intelligenza
Il rapido sviluppo dell’AI in grado di autoformarsi solleva anche interrogativi su come possiamo controllarne la crescita. L’idea dell’autonomia dei percorsi formativi dell’AI è una componente cruciale di Singularity, il film di fantascienza in cui le AI iniziano a migliorare a un ritmo esponenziale e vanno oltre il nostro controllo. Alla fine, avvertono alcuni profeti di sventura, l’intelligenza artificiale potrebbe decidere di non aver bisogno degli esseri umani. Non è comunque quello che nessuno di questi ricercatori ha in mente: il loro lavoro è focalizzato sul migliorare l’intelligenza artificiale di oggi.
Anche così, Jane Wang di DeepMind ha delle riserve. Una grande parte dell’attrazione dell’uso dell’intelligenza artificiale per creare l’intelligenza artificiale è che può elaborare progetti e tecniche a cui le persone non avevano pensato. Eppure Wang osserva che non tutte le sorprese sono buone: “L’indeterminatezza è, per definizione, qualcosa di inaspettato”. Se l’idea è di far fare all’intelligenza artificiale qualcosa che non si era previsto, il controllo diventa problematico”.
Clune sottolinea anche l’importanza di pensare fin dall’inizio all’etica della nuova tecnologia. Ci sono buone probabilità che le reti neurali e gli algoritmi progettati dall’intelligenza artificiale siano ancora più difficili da comprendere rispetto ai sistemi a scatola nera già opachi di oggi. Le AI generate da algoritmi potrebbero essere dominate dai pregiudizi e più difficile da controllare per far sì che non si comportino in modi indesiderati.
“La maggior parte delle persone nella comunità del machine learning non parla mai del percorso generale verso un’AI estremamente potente”, afferma, “ma tende a concentrarsi su piccoli miglioramenti incrementali”. Clune vuole che si apra una conversazione sulle più grandi ambizioni del campo. Se l’intelligenza artificiale inizia a generare intelligenza da sola, non c’è alcuna garanzia che sarà simile a quella umana.
“Probabilmente c’è un vasto numero di modi diversi per essere molto intelligenti”, dice Clune. “Una delle cose che mi entusiasma dell’AI è che potremmo arrivare a comprendere l’intelligenza più in generale, vedendo quale variazione è possibile. “E’ quasi come inventare viaggi interstellari e poter visitare culture aliene. Non ci sarebbe momento più grande nella storia dell’umanità che incontrare una razza aliena e conoscere la sua cultura, la sua scienza. Il viaggio interstellare è ancora estremamente improbabile”, conclude, “ma già oggi abbiamo la capacità potenziale di creare intelligenze aliene digitalmente”.
Immagine di: Shuhua Xiong