Una branca della Intelligenza Artificiale, l’apprendimento automatico (ML), utilizza algoritmi sofisticati per apprendere dai dati e identificare costanti, aiutando le aziende a prendere decisioni migliori senza la necessità di input umani e oggi alimentando innumerevoli applicazioni.
di Giordano Ventura
Se l’Intelligenza Artificiale procederà secondo i piani, potrà diventare la più importante rivoluzione operativa che il mondo abbia mai conosciuto.
Quanto sta accadendo in uno degli ospedali pediatrici più importanti al mondo ne rappresenta un magnifico esempio. I medici del Great Ormond Street Hospital (GOSH) visitano ogni anno oltre 300mila bambini, molti dei quali in situazioni critiche. Per garantire che i suoi pazienti ricevano la migliore assistenza possibile in un ambiente sicuro e protetto, GOSH sta sperimentando un sistema di riconoscimento personale basato sulla Intelligenza Artificiale.
Il sistema utilizza una rete di telecamere intelligenti per esaminare il volto, la struttura corporea e l’andatura di ogni persona, eseguendo automaticamente il controllo di queste caratteristiche su un database di persone registrate. Il sistema ha aumentato la sicurezza ospedaliera e offre anche benefici clinici.
In passato, un sistema così sofisticato avrebbe richiesto un enorme e costoso centro dati, ma la rivoluzione dell’IA consente soluzioni diverse. Invece di un collegamento cloud, i dati generati dalle innovative telecamere di GOSH vengono elaborati localmente nelle fotocamere stesse utilizzando un piccolo chip, più rapidamente e in modo più economico.
Si potrebbero citare molti altri esempi, non meno significativi, di come il modo di interagire con le macchine stia cambiando. Per esempio, un robot per anziani basato sulla Intelligenza Artificiale utilizza ML per comprendere le preferenze, il comportamento e la personalità di chi lo usa. Sulla base di queste interazioni, il robot può connettere automaticamente gli anziani a vari contenuti digitali, come musica o audiolibri, oltre a ricordare i prossimi appuntamenti, a connettersi a parenti e amici attraverso i social media.
l vantaggi dei sistemi locali
I produttori di hardware equipaggiano sempre più spesso i propri dispositivi con chip compatibili con ML. Di conseguenza, questi dispositivi acquisiscono e elaborano i dati in tempo reale, fornendo analisi situazionali istantanee, identificando modelli e supportando i processi decisionali.
I dispositivi Edge, in grado di processare localmente gli algoritmi della Intelligenza Artificiale, eseguono principalmente lavori in cui i dati del mondo reale vengono confrontati con un modello esperto. Questi modelli sono per lo più posizionati nel cloud a causa delle pesanti esigenze di calcolo. Tuttavia, si stanno moltiplicando i dispositivi di bordo utilizzati come istruttori mentre apprendono in ambienti reali.
Il tempismo non avrebbe potuto risultare più opportuno. Si sta raggiungendo una massa critica di risorse di elaborazione nel cloud. Circa 20 miliardi di dispositivi connessi sono previsti entro il 2022, di cui circa 18 miliardi saranno collegati all’Internet of Things. Parallelamente, il consumatore medio possiederà 13 dispositivi connessi entro il 2021, quando i veicoli autonomi popoleranno le strade e i sensori si diffonderanno dai pavimenti della fabbrica alle fattorie rurali, richiedendo sempre maggiori potenze di calcolo.
«Con l’esplosione esponenziale dei dispositivi intelligenti, non ci sono abbastanza data center nel mondo per usufruire del cloud», sostiene Ian Bratt, un ingegnere di Arm Limited, dove dirige il gruppo di tecnologia di apprendimento automatico.
Anche per quanto concerne la sicurezza, un modo infallibile per prevenire un attacco è assicurarsi che i dati sensibili non abbandonino mai un dispositivo. La ML on-device fornisce anche il decentramento, rendendo più difficile agli hacker lanciare un attacco rispetto a un singolo server centralizzato. La ML delocalizzata può alleggerire gli oneri finanziari, riducendo la dipendenza da servizi e infrastrutture cloud costosi.
Come scegliere il microprocessore più adatto
Tuttavia, con la quantità di potenza di calcolo richiesta dalla Intelligenza Artificiale, che raddoppia ogni cento giorni, molte organizzazioni si stanno chiedendo dove devono essere eseguiti i carichi di lavoro ML: su un processore centrale (CPU), un processore grafico (GPU) o un processore neurale (NPU)?
La risposta dipende da una serie di fattori, tra cui la rapidità con cui devono essere eseguite le attività e le prestazioni di calcolo richieste. Alcuni algoritmi di addestramento e inferenza sono così complessi e la quantità di dati così enorme, che soluzioni di calcolo più veloci, come una GPU e NPU, meritano di venire tenute in considerazione per integrare i CPU degli odierni sistemi. In effetti, sempre più utenti stanno realizzando che possono sfruttare meglio la potenza di calcolo già presente in un CPU.
Ciò non significa tuttavia che non ci sia un enorme valore in GPU e NPU. Sebbene siano più noti per la elaborazione di grafica, video e foto, le GPU si stanno imponendo nei settori della finanza e della ricerca scientifica.
I NPU, d’altra parte, sono molte volte più veloci dei GPU, risultando più adatti per compiti di elaborazione intensiva e carichi di lavoro pesanti, mentre la disponibilità generale e la programmabilità dei CPU li rendono una ottima opzione per l’inferenza mobile.
La chiave è sfruttare tutte e tre le forme di potenza computazionale a seconda del compito relativo.
In effetti, gli impieghi si stanno evolvendo rapidamente, dal riconoscimento vocale e dai filtri fotografici ai dispositivi salvavita, spingendo in maniera crescente la richiesta di potenza di elaborazione. Spostare contestualmente i carichi di lavoro ML può aiutare a migliorare le prestazioni e l’efficienza.
(gv)