L’intelligenza artificiale sta modificando il modo di fare computer, i sistemi di programmazione e il tipo di utilizzo. Il risultato è un cambiamento alla radice del significato del calcolo.
di Will Douglas Heaven
Autunno 2021: la stagione delle zucche, delle torte di noci pecan e dei nuovi telefoni color pesca. Ogni anno, al momento giusto, Apple, Samsung, Google e altri rilasciano le loro ultime versioni. Questi appuntamenti nel calendario della tecnologia di consumo non ispirano più la sorpresa dei primi inebrianti giorni, ma dietro tutto lo sfarzo del marketing, c’è qualcosa di straordinario in corso.
L’ultima offerta di Google, il Pixel 6, è il primo telefono ad avere un chip separato dedicato all’intelligenza artificiale che si affianca al suo processore standard. Inoltre, negli ultimi due anni, il chip che gestisce l’iPhone ha all’interno quello che Apple chiama un “motore neurale”, anch’esso dedicato all’intelligenza artificiale. Entrambi i chip sono più adatti ai tipi di calcoli coinvolti nell’addestramento e nell’esecuzione di modelli di apprendimento automatico sui nostri dispositivi, come l’AI che alimenta la fotocamera. Sommessamente, l’intelligenza artificiale è diventata parte della nostra vita quotidiana e sta cambiando il modo in cui pensiamo all’informatica.
Che cosa significa? In realtà, i computer non sono cambiati molto in 40 o 50 anni. Sono più piccoli e veloci, ma sono ancora scatole con processori che eseguono istruzioni da umani. L’intelligenza artificiale li sta modificando su almeno tre fronti: come sono fatti i computer, come sono programmati e come vengono utilizzati. Questi tre cambiamenti, alla fine, stanno rendendolo uno strumento diverso.
“Il cuore dell’informatica sta cambiando dall’analisi numerica al processo decisionale”, afferma Pradeep Dubey, direttore del laboratorio di elaborazione parallela di Intel. O, come dice la direttrice del MIT CSAIL Daniela Rus, l’intelligenza artificiale sta liberando i computer dalle loro scatole.
Più velocità meno precisione
La prima modifica riguarda il modo in cui vengono realizzati i computer e i chip che li controllano. I vantaggi dell’elaborazione tradizionale sono arrivati quando le macchine sono diventate più veloci nell’eseguire un calcolo dopo l’altro. Per decenni il mondo ha beneficiato dell’accelerazione dei chip che è arrivata con regolarità metronomica mentre i produttori di chip hanno tenuto il passo con la legge di Moore. Ma i modelli di deep learning che fanno funzionare le attuali applicazioni di intelligenza artificiale richiedono un approccio diverso: hanno bisogno di un gran numero di calcoli meno precisi da eseguire tutti allo stesso tempo.
Ciò significa che è necessario un nuovo tipo di chip: uno in grado di spostare i dati il più rapidamente possibile, assicurandosi che siano disponibili quando e dove è necessario. Quando il deep learning è esploso sulla scena una decina di anni fa, erano già disponibili chip per computer speciali che erano piuttosto abili a farlo, vale a dire unità di elaborazione grafica o GPU, progettate per visualizzare un’intera schermata di pixel decine di volte al secondo.
Ora i produttori di chip come Intel e Arm e Nvidia, che hanno fornito molte delle prime GPU, sono impegnati a realizzare hardware su misura per l’intelligenza artificiale. Anche Google e Facebook si stanno facendo strada per la prima volta in questo settore, in una corsa per trovare un vantaggio nell’intelligenza artificiale attraverso l’hardware.
Per esempio, il chip all’interno del Pixel 6 è una nuova versione mobile dell’unità di elaborazione del tensore di Google, o TPU. A differenza dei chip tradizionali, che sono orientati a calcoli ultraveloci e precisi, i TPU sono progettati per i calcoli ad alto volume, ma a bassa precisione, richiesti dalle reti neurali. Google utilizza questi chip internamente dal 2015: elaborano le foto delle persone e le query di ricerca in linguaggio naturale. La consociata di Google DeepMind li usa per addestrare le sue AI.
Negli ultimi due anni, Google ha reso disponibili le TPU ad altre aziende e questi chip, così come quelli simili sviluppati da concorrenti, stanno diventando l’impostazione predefinita all’interno dei data center di tutto il mondo. L’intelligenza artificiale sta persino aiutando a progettare la propria infrastruttura informatica.
Nel 2020, Google ha utilizzato un algoritmo di apprendimento per rinforzo, un tipo di intelligenza artificiale che impara a risolvere un’attività attraverso tentativi ed errori, per progettare il layout di una nuova TPU. L’intelligenza artificiale alla fine ha inventato nuovi strani progetti a cui nessun essere umano avrebbe pensato, ma hanno funzionato. Questo tipo di intelligenza artificiale potrebbe un giorno sviluppare chip migliori e più efficienti.
Le rete neurale apprende da sola
La seconda modifica riguarda il modo in cui ai computer viene detto cosa fare. Negli ultimi 40 anni abbiamo programmato computer; per i prossimi 40 li formeremo, afferma Chris Bishop, capo di Microsoft Research nel Regno Unito. Tradizionalmente, per fare in modo che un computer esegua qualcosa come riconoscere il parlato o identificare gli oggetti in un’immagine, i programmatori dovevano prima elaborare regole per il computer. Con l’apprendimento automatico, i programmatori non scrivono più regole. Invece, creano una rete neurale che apprende da sé quelle regole. È un modo di pensare fondamentalmente diverso.
Esempi di questo sono già all’ordine del giorno: il riconoscimento vocale e l’identificazione delle immagini sono ora funzionalità standard sugli smartphone. Altri esempi hanno fatto notizia, come quando AlphaZero ha imparato a giocare a Go meglio degli umani. Allo stesso modo, AlphaFold ha aperto la strada alla risoluzione di un problema di biologia, capire come si ripiegano le proteine, con cui le persone hanno lottato per decenni.
Per Bishop, le prossime grandi scoperte arriveranno nella simulazione molecolare: addestrare i computer a manipolare le proprietà della materia, facendo potenzialmente passi da gigante nell’uso dell’energia, nella produzione alimentare e nella medicina. Promesse avveniristiche di questo tipo vengono fatte spesso. È anche vero che l’apprendimento profondo ha una lunga esperienza nel sorprenderci.
Il computer lo fa meglio
Per decenni, far fare qualcosa a un computer significava digitare un comando o almeno fare clic su un pulsante. Le macchine non hanno più bisogno di una tastiera o di uno schermo con cui gli umani possano interagire. Tutto può diventare un computer. In effetti, la maggior parte degli oggetti per la casa, dagli spazzolini da denti agli interruttori della luce ai campanelli, è già disponibile in una versione intelligente, elaborando da soli ciò di cui abbiamo bisogno senza che gli venga detto.
Questo è il passaggio dall’analisi numerica al processo decisionale che Dubey vede come la definizione della nuova era dell’informatica. Rus vuole che accettiamo il supporto cognitivo e fisico offerto. Immagina computer che ci dicono cose che dobbiamo sapere quando abbiamo bisogno di conoscerle e che intervengono quando abbiamo bisogno di una mano.
“Quando ero bambino, una dei miei cartoni preferiti era L’apprendista stregone”, dice Rus. “Vi ricordate come Topolino chiama la scopa per aiutarlo a riordinare? Non avremo bisogno della magia per farlo anche noi”. Ci ricordiamo anche come finisce quella storia. Topolino perde il controllo della scopa e la situazione precipita.
Immagine di: Andrea Daquino
(rp)