IA e carbon footprint

Un nuovo sistema permette di risparmiare sull’energia necessaria alle operazioni di un’intelligenza artificiale.

di Lisa Ovi

Ricercatori del MIT hanno sviluppato un nuovo sistema di intelligenza artificiale per l’addestramento e la gestione delle reti neurali che aumenta l’efficienza computazionale del sistema e ne riduce il dispendio energetico.

Secondo una ricerca dell’anno scorso,  le operazioni necessarie a formare e mantenere una rete neurale comportano un volume di emissioni di anidride carbonica poco inferiore al volume medio prodotto da 5 automobili nell’arco della loro esistenza, produzione compresa.

Il sistema ideato dai ricercatori, definito una rete once-for-all (una volta per tutte), è composto da numerose sottoreti preinstallate, di diverse dimensioni, adattabili a diversi tipi di piattaforme hardware senza riqualificazione. Il sistema riduce drasticamente l’energia normalmente necessaria ad addestrare ciascuna rete neurale specializzata per nuove piattaforme e nuove reti di dispositivi Internet delle cose (IoT). Dai test condotti su di un modello di visione artificiale, i ricercatori hanno stimato che il processo richiede all’incirca 1/1.300 emissioni di carbonio rispetto agli attuali approcci.

I ricercatori hanno sfruttato un recente progresso nel campo delle IA chiamato AutoML, grazie al quale la progettazione della rete diviene automatica. Ciascuna IA deve, però, essere anche addestrata da zero per la piattaforma di destinazione. Il nuovo sistema AutoML forma una singola, grande rete “una volta per tutte” (OFA) che assume le funzioni di “rete madre” e educa un numero elevato di sottoreti ai propri compiti. Ogni sottorete può quindi operare in modo indipendente al momento dell’inferenza, senza riqualificazione.

Il team ha testato il sistema su di una rete neurale OFA (CNN), comunemente utilizzata per compiti di elaborazione delle immagini. Data una piattaforma specifica, il sistema utilizza OFA come spazio di ricerca per trovare la sottorete più efficiente per accuratezza, limiti di potenza e velocità della piattaforma. Per un dispositivo IoT, ad esempio, il sistema troverà una sottorete più piccola. Per gli smartphone, selezionerà sottoreti più grandi, ma con strutture diverse a seconda della durata della batteria e delle risorse di calcolo.

Il processo è stato basato si du un algoritmo a “riduzione progressiva”, grazie al quale OFA è stata indotta a supportare in modo efficiente un’intera rete in contemporanea. Inizialmente, OFA supporta l’intera rete alle sue dimensioni massime, per poi gestirne la riduzione progressiva per includere sottoreti più piccole. Le sottoreti più piccole vengono addestrate grazie all’aiuto di sottoreti di dimensioni maggiori, favorendo una crescita d’insieme. Alla fine, ogni sottorete è coinvolta, consentendo una rapida specializzazione basata sulla potenza e sui limiti di velocità della piattaforma. La rete è quindi in grado di supportare numerosi dispositivi hardware senza costi di formazione quando viene aggiunto un nuovo dispositivo.

Senza compromettere l’accuratezza o l’efficienza dell’inferenza, OFA fornisce un servizio accurato e preciso sui dispositivi mobili, con grande risparmio energetico e una velocità d’esecuzione superiore di 1,5-2,6 volte superiore alle attuali prestazioni.

Immagine di: Saiman Chow

(lo)

Related Posts
Total
0
Share