L’anno dell’AI per tutti inizia con gli AI PC. Intervista a Walter Riviera

Walter Riviera è AI Technical Lead EMEA e COE in Intel. È responsabile del servizio Intel per aumentare la consapevolezza tecnica e commerciale dell’offerta AI di Intel, di fornire supporto tecnico ai clienti finali, agli OEM e ai partner nell’implementazione di soluzioni HPC e Cloud basate sull’IA, e partner nell’implementazione di soluzioni HPC e cloud per l’IA basate sui prodotti e le tecnologie Intel.

Perché lo sviluppo dell’intelligenza artificiale sta accelerando così tanto nell’ultimo periodo?

Walter Riviera
INTEL

Quando si parla di intelligenza artificiale dobbiamo considerare alcuni elementi fondamentali: il primo riguarda i dati; il secondo è la teoria, nel senso di sviluppo teorico dell’IA. C’è anche un terzo elemento, che sicuramente gioca un ruolo importante nel grande successo che ha questo tema, e che è la disponibilità dell’hardware. Questi tre elementi sono le basi su cui poggia oggi l’intelligenza artificiale. Anche se avessimo un modello potente di IA, e per modello intendiamo una sorta di “cervello” digitale, ad esempio in grado di riconoscere le targhe delle automobili in maniera molto efficiente, senza telecamere in grado di catturare in maniera nitida immagini non ce ne faremmo nulla. Un modello sempre più complesso e “intelligente” è come se avesse più “neuroni” digitali. Questo significa anche riuscire a fare calcoli sempre più complessi. Serve quindi un hardware capace di sostenere questa mole di calcoli sempre crescente e un software in grado di ottimizzare questi processi, sia nell’addestramento del modello per svolgere un compito, sia successivamente, quando il modello opera per l’attività che deve svolgere.

Quindi quello che c’è oggi, a differenza che nel passato, è la potenza di calcolo, la capacità di storage dei dati e tutta l’infrastruttura tecnologica che serve a sostenere una IA…

Esatto. Diciamo che il primo vero balzo in avanti è stato fatto con la Computer Vision nel 2012 quando AlexNet, la prima rete neurale, vinse la prima ImageNet Challenge. Quello forse è stato lo spartiacque. Sicuramente anche negli anni precedenti si erano sviluppati studi che hanno poi portato a questa rivoluzione, ma se vogliamo evidenziare un momento in cui il cambiamento è avvenuto in maniera significativa, direi il 2012, con AlexNet che fu il primo sistema IA in grado di classificare immagini riprese con un’accuratezza sorprendente rispetto ai metodi tradizionali. Poi, dobbiamo capire sempre di cosa stiamo parlando. A cosa attribuiamo questa rivoluzione? All’intelligenza artificiale, al machine learning o al deep learning? Il machine learning esiste già dagli anni Settanta e nel 2000 era già utilizzato, ad esempio, per le previsioni meteorologiche o finanziarie. Oggi, quando parliamo di rivoluzione nel settore IA parliamo di deep learning, quindi l’apprendimento profondo che è l’elemento che ha cambiato un po’ tutto e che ha avuto bisogno di un avanzamento anche tecnologico adeguato, partendo dalla potenza computazionale per gestire una vasta quantità di dati.

Un sommario dei prodotti di Intel per le diverse categorie di operazioni basate su AI.
INTEL

Noi oggi abbiamo una IA che potremmo definire “di massa”, grazie a ChatGPT, accessibili a tutti e quindi ci aspettiamo anche hardware e software in grado di gestire questi sistemi. Come si evolveranno i computer nelle case delle persone? Ci sarà un “IA personal computer”?

Parliamo di un mondo in continua e costante evoluzione. Banalmente, i dati vengono processati dalle unità di calcolo, che sia un PC con IA o un server nel cloud. Ma ci sono sensori sempre più accurati e che forniscono dati sempre più ricchi. Quindi da un lato i dati evolvono; dall’altro, anche i modelli si sviluppano. GPT è solo uno degli esempi, ma ne esistono tanti altri anche open source, come Llama che è un ottimo esempio perché è disponibile in diverse “dimensioni” in base al numero di parametri. Questi modelli si stanno evolvendo e si sviluppano sempre. Lo scorso anno non esistevano modelli come quelli che abbiamo oggi. Per questo serve anche una certa flessibilità a livello di calcolo. Riguardo all’AI PC, possiamo dire di aver inaugurato questa nuova categoria di dispositivi il 14 dicembre scorso, con la presentazione dei processori Intel Core Ultra che saranno il cervello di centinaia di nuovi PC capaci di eseguire applicazioni basate su AI oggi disponibili solo se connessi al cloud. Già qualche modello è in circolazione. Pensiamo ai primi PC portatili con WiFi integrato, con la famosa piattaforma Intel Centrino, e all’impatto che ha avuto il WiFi negli uffici. Ecco, dobbiamo immaginare l’AI PC un po’ in questo senso: abbiamo questo strumento di transizione, estremamente potente ed efficace dal punto di vista energetico, che ci permette di elaborare informazioni a livello locale, anziché caricare tutto sul cloud. Questo sblocca scenari legati alla produttività, come ad esempio correttori o suggeritori linguistici per le email, ai quali siamo già abituati ma che stanno diventando oggi sempre più precisi e completi, oppure all’ottimizzazione delle video call con tutta una serie di feature importanti (dalla riduzione del rumore all’eliminazione del background o la correzione dello sguardo) che possono beneficiare dell’IA per l’elaborazione in tempo reale e in streaming. Questi modelli di IA esistono già ma dobbiamo fare eseguire i suoi compiti a un PC che, al contempo, deve continuare a fare tutto quello che faceva prima. Serve quindi un aiuto in più per supportare questo sforzo computazionale aggiuntivo. Considerando sempre che l’AI PC è una fase di transizione, non un punto di arrivo. Dobbiamo aspettarci ulteriori evoluzioni come gli AI assistant che ci aiuteranno in tutte le attività, anche le più banali, di ogni giorno, o per la generazione di contenuti. Non c’è limite alle evoluzioni che si possono avere in futuro. L’importante è comprendere che l’AI PC, oggi, è un punto di partenza.

Uno dei primi AI PC in commercio.
INTEL

Da un punto di vista strettamente tecnico, cos’è un’AI PC?

L’AI PC non è altro che l’evoluzione dei personal computer che utilizziamo oggi. A livello hardware possiede una CPU e una GPU normali. Poi dipende da cosa serve. Abbiamo iniziato a lavorarci già da diversi anni, sia dal punto di vista del PC sia da quello del server. Quindi, ad esempio, se siamo interessati ad aumentare il numero di immagini che è possibile processare al secondo, interveniamo con l’IA a livello di processore grafico, la GPU; se, invece, vogliamo ottimizzare la latenza, perché vogliamo velocizzare al massimo le risposte, probabilmente sarebbe ideale intervenire a livello di CPU. Ma c’è anche un terzo scenario: quello di assistenti o componenti AI che devono girare in maniera latente per essere sempre aggiornati rispetto a quello che avviene nel PC in tempo reale. Questo tipo di AI è un po’ un mix dei due casi precedenti ed è fondamentale che sia anche efficace da un punto di vista energetico. Quindi, in definitiva, la novità dell’AI PC rispetto alle generazioni tradizionali di personal computer è un processore aggiuntivo, che si chiama NPU (Neural Processing Unit) in grado di ospitare questi modelli di IA in maniera efficace ed efficiente per workload sostenuti e latenti che devono essere sempre rapidi. Questo a livello hardware. Poi, ovviamente, ci sta tutto il resto perché, se ho l’hardware ma non so come utilizzarlo o non c’è nessun software che lo utilizzi a dovere, è un po’ sprecato… Da questo punto di vista esistono gli ISV (Independent Software Vendors), su cui abbiamo lavorato e che ci permettono di sviluppare numerose applicazioni che possono sfruttare questo NPU in maniera ottimale. l’idea di rendere tutto questo disponibile agli sviluppatori ci fa fantasticare molto su come la community potrà sfruttare tali feature.

Qual è il supporto di Intel all’ecosistema?

Come Intel, abbiamo delle partnership importanti con i vari ISV e ci sono già oltre 300 applicazioni che possono  sfruttare queste feature hardware, sviluppate da oltre 100 ISV. Quindi il parco è già molto ampio. Questi software rimarranno disponibili e ci aspettiamo che continueranno ad aumentare. Siamo sicuri che le nuove feature verranno apprezzate e daranno il via a una serie sempre crescente di applicazioni che daranno spazio alla creatività e all’innovazione. C’è da considerare che tanti di questi modelli sono open source e uno sviluppatore può sfruttarli. Così come c’è stata la rivoluzione degli smartphone che, a differenza dei cellulari precedenti, avevano un sistema operativo che poteva essere customizzato a piacere e in cui gli sviluppatori potevano sviluppare le varie app. Da lì, tanti sviluppatori hanno lavorato sulle proprie app che poi sono finite nei vari app store dei vari vendor. Diciamo che questa è una dinamica che potrebbe sbloccarsi anche con l’AI PC: l’hardware è a disposizione; il software è pubblico; molti modelli di IA sono open source per cui è facile immaginare che tutto questo permetta alla community di sviluppare applicazioni che sfruttano le nuove feature.

Ci sarà una denominazione particolare, una certificazione per questi nuovi AI PC?

Il processore con NPU integrata si chiama Intel Core Ultra, che è il nome effettivo del prodotto, e che sarà il cervello dei primi AI PC.  Quindi un PC dotato di questo processore dà già garanzia di determinate caratteristiche. Inoltre Intel porta avanti il programma di innovazione Intel Evo, tramite cui co-progetta e certifica PC che soddisfano determinate caratteristiche. Intel Evo è stato aggiornato per essere al passo con l’evoluzione degli AI PC e dunque con esigenze e aspettative delle persone che utilizzano i dispositivi sempre più elevate, ed ha un nuovo brand Intel Evo Edition.

Lato software, tutte le soluzioni saranno certificate dai partner di Intel che hanno già avuto accesso a tutto il materiale che Intel mette loro a disposizione. Parliamo di partnership stabili e durature e l’intenzione è di continuare in questa direzione, con l’obiettivo di far crescere l’AI PC che già conta un importante bacino di soluzioni supportate.

Processare i dati in locale sembra in controtendenza rispetto al modello che sembrava si stesse affermando, quello cioè di immaginare computer sempre più volatili, uno strumento per avere sempre a portata di mano il cloud e i dati in remoto. Come si concilia l’AI PC con questa visione?

Partiamo col dire che non c’è una ricetta migliore delle altre e che funziona in ogni scenario. Dobbiamo pensare all’IA come un processo in cui hardware e software devono seguire un’idea per funzionare al meglio. Non il contrario. Oggi c’è questa possibilità. Intel ha probabilmente uno dei portafogli più grandi, se non il più grande, nel mercato per quanto riguarda l’offerta AI legata a componenti hardware e software. L’IA non è un unico prodotto,  è un insieme di strumenti che possono ottimizzare un dato processo di lavoro. Se lavoriamo su applicazioni come la correzione grammaticale, il servizio che legge e controlla un documento di 100 o più pagine ci sta che sia nel cloud. Ma ricordiamo sempre che questi servizi in cloud li abbiamo sviluppati perché non avevamo la potenza computazionale che abbiamo oggi sui PC di casa. Voglio dire che non ci si deve sentire obbligati a cambiare modo di lavorare, spostando tutto dal cloud al locale, ma ci sono certamente dei casi d’uso. Pensiamo, ad esempio, ai casi in cui si processano dati sensibili. Abbiamo visto che anche la politica si sta muovendo, con l’AI Act, su questo tema e questo ci fa capire che il dato diventa sempre più critico e importante rispetto a prima. Per cui, la possibilità di processarlo in locale, senza condividerlo troppo – per quanto siano affidabili e certificate le realtà attraverso cui questi dati vengono condivisi – è comunque un atto di buon senso. Fino a oggi, per quello che era l’uso che noi dovevamo fare dei dati, il cloud ci ha offerto tutte le soluzioni perché metteva a disposizione più memoria, più spazio, più potenza di calcolo. Adesso, con l’NPU degli Intel Core Ultra, si può fare tutto in locale. Per cui dipende dagli usi e dalle necessità di volta in volta. Io credo che il cloud e l’AI PC rimarranno comunque di vitale importanza e continueranno ad evolversi perché, per fare un esempio banale, in una classica pipeline in cui sono coinvolti dei sensori che condividono informazioni con il cloud, poter filtrare a priori quei dati che realmente si vogliono conservare in locale e trasferire sul cloud il resto, perché oggi abbiamo la potenza di calcolo per poterlo fare, non è una cosa da poco perché aiuta anche a ottimizzare il tutto, liberando risorse nel cloud.

Processore Intel Core Ultra valutato nell’impianto di assemblaggio e test di Intel in Costa Rica.
INTEL

Ci sono dei rischi nell’uso dell’intelligenza artificiale?

Assolutamente sì. L’intelligenza artificiale è uno strumento e sta diventando sempre più importante relativamente ai compiti in cui può essere impiegata. Come tutti gli strumenti, se non la si usa con il dovuto rispetto possiamo farci male. Rispetto all’IA questo vuol dire che, se non impariamo a usare con rispetto i dati o le informazioni –  e l’AI Act su questo punto insiste in maniera evidente e forte con multe salatissime per chi non rispetta i limiti imposti dalla norma – possiamo incorrere in rischi. Ci sono tanti altri scenari che si possono affrontare, così come esistono tante potenzialità dietro questo strumento. Ma sapere utilizzare questa tecnologia in maniera adeguata e con il dovuto rispetto, saper maneggiare i dati con la dovuta privacy e la giusta sensibilità (in questo caso sfruttare i dati in locale rispetto al cloud aiuta) evita certi rischi. Questi sono i rischi maggiori che vedo io, ma non mi demotivano. Anzi, mi stimolano a fare ancora di più educazione, a far crescere la consapevolezza. Prendere consapevolezza dell’AI come strumento e rispettarlo come tale aiuta a limitare questo genere di rischi.

Pensi che si arriverà mai a sviluppare l’AGI, l’intelligenza artificiale generale?

Personalmente, credo che oggi siamo ancora in un’area dove c’è tantissimo di artificiale ma ancora molto poco di intelligenza. Prima di parlare di AGI, dobbiamo riuscire a risolvere i problemi dell’intelligenza artificiale odierna. Renderla, cioè, più intelligente e un po’ meno artificiale. Fino a quando non raggiungeremo questo step ritengo sia inutile, e anche controproducente, pensare troppo oltre. Controproducente perché io credo realmente ai benefici che l’intelligenza artificiale possa portare all’umanità, così come alla vita di tutti i giorni, oltre che nel lavoro. Pensiamo all’IA che possiamo trovare negli ospedali o a quella che ci aiuta a scegliere un film da guardare. In qualche modo fa già parte della nostra quotidianità. Questo però sta stimolando dei timori, complici anche film e distopie che vengono presentate nelle varie narrazioni un po’ incomplete e inconsapevoli. Per tutto questo io credo che oggi sia controproducente fantasticare troppo sull’intelligenza artificiale generale. Prima sblocchiamo e insegniamo quello che c’è oggi, che è già tanto. Accresciamo la consapevolezza di quello che lo stato dell’arte offre, che non è ancora sufficiente. Se poi arriverà un’ulteriore evoluzione sarà una nuova rivoluzione tecnologica come quella che oggi rappresenta l’intelligenza artificiale generativa. Sarà uno step successivo che aprirà nuovi scenari e nuove sfide. Oggi, negli LLM, che hanno guidato la rivoluzione nel 2023, c’è veramente tanto di artificiale. Tante persone non hanno ancora capito perché questi modelli non siano in grado di fare conti di matematica, perché non conoscono bene il loro funzionamento. Ma quando si conoscono le basi di funzionamento si comprende bene perché il modello non riesce a fare queste operazioni. È come se io chiedessi di risolvere l’operazione “2+2” ma la scrivessi in geroglifico. Quelli sono simboli, non vengono visti come numeri. La stessa cosa fa un Large Language Model oggi: non li vede come numeri che hanno un significato matematico ma come simboli. Quindi, prova a rispondere al quesito con il simbolo che, nella letteratura, corrisponde più spesso a quella operazione, senza il valore matematico che invece ha. Questo per fare un esempio di come i limiti oggi siano abbastanza importanti e forse non sono totalmente compresi. Per cui, ripeto, prima di parlare di intelligenza artificiale generale sbloccherei l’intelligenza artificiale attuale e la renderei più intelligente e disponibile a tutti. Poi, se arriverà quello step, saremo pronti per cercare di farne un uso il più responsabile possibile.

Related Posts
Total
0
Share