
Le aziende di IA stanno rivelando il dato che i ricercatori cercavano da tempo. Cosa succederà ora?
All’inizio di quest’anno, quando io e la mia collega Casey Crownhart abbiamo trascorso sei mesi a studiare l’impatto climatico ed energetico dell’IA, abbiamo individuato un dato in particolare come nostra “balena bianca”: quanta energia consumano i principali modelli di IA, come ChatGPT o Gemini, per generare una singola risposta.
Questo dato fondamentale rimaneva sfuggente anche quando la corsa all’alimentazione dell’IA si è intensificata fino alla Casa Bianca e al Pentagono e le proiezioni mostravano che in tre anni l’IA avrebbe potuto consumare tanta elettricità quanto il 22% di tutte le famiglie statunitensi.
Il problema nel trovare quel dato, come spieghiamo nel nostro articolo pubblicato a maggio, era che le aziende di IA sono le uniche a conoscerlo. Abbiamo tormentato Google, OpenAI e Microsoft, ma ciascuna di queste aziende si è rifiutata di fornire i propri dati. I ricercatori con cui abbiamo parlato, che studiano l’impatto dell’IA sulle reti energetiche, hanno paragonato la situazione al tentativo di misurare l’efficienza energetica di un’auto senza averla mai guidata, facendo ipotesi basate su voci relative alle dimensioni del motore e al rumore che produce quando percorre l’autostrada.
Ma poi quest’estate, dopo la pubblicazione del nostro articolo, è successa una cosa strana. A giugno, Sam Altman di OpenAI ha scritto che una query media di ChatGPT consuma 0,34 wattora di energia. A luglio, la startup francese di IA Mistral non ha pubblicato direttamente un dato, ma ha reso nota una stima delle emissioni generate. Ad agosto, Google ha rivelato che rispondere a una domanda su Gemini consuma circa 0,24 wattora di energia. Le cifre di Google e OpenAI erano simili a quelle che Casey e io avevamo stimato per i modelli di IA di medie dimensioni.
Quindi, con questa nuova trasparenza, il nostro lavoro è finito? Abbiamo finalmente catturato la nostra balena bianca e, se sì, cosa succederà ora a chi studia l’impatto climatico dell’IA? Ho contattato alcune delle nostre vecchie fonti e alcune nuove per scoprirlo.
I numeri sono vaghi e disponibili solo tramite chat
La prima cosa che mi hanno detto è che mancano molti dati nelle cifre pubblicate quest’estate dalle aziende tecnologiche.
I dati di OpenAI, ad esempio, non sono stati pubblicati in un documento tecnico dettagliato, ma in un post sul blog di Altman che lascia molte domande senza risposta, come a quale modello si riferisse, come fosse stato misurato il consumo energetico e quanto variasse. Il dato di Google, come sottolinea Crownhart, si riferisce alla quantità mediana di energia per query, il che non ci dà un’idea delle risposte di Gemini che richiedono più energia, come quando utilizza un modello di ragionamento per “riflettere” su un problema difficile o genera una risposta molto lunga.
I numeri si riferiscono inoltre solo alle interazioni con i chatbot, non agli altri modi in cui le persone stanno diventando sempre più dipendenti dall’IA generativa.
“Man mano che i video e le immagini diventano più importanti e utilizzati da un numero sempre maggiore di persone, abbiamo bisogno dei numeri relativi alle diverse modalità e di come vengono misurati”, afferma Sasha Luccioni, responsabile dell’IA e del clima presso la piattaforma di IA Hugging Face.
Questo è importante anche perché i dati relativi alle domande poste a un chatbot sono, come prevedibile, indubbiamente esigui: equivalgono al consumo di elettricità di un forno a microonde in pochi secondi. Questo è uno dei motivi per cui i ricercatori nel campo dell’IA e del clima non ritengono che l’uso dell’IA da parte di un singolo individuo crei un impatto significativo sul clima.
Una contabilità completa del fabbisogno energetico dell’IA, che vada oltre quello utilizzato per rispondere a una singola query e ci aiuti a comprenderne l’impatto netto complessivo sul clima, richiederebbe informazioni specifiche sull’applicazione di come viene utilizzata tutta questa IA. Ketan Joshi, analista per gruppi che si occupano di clima ed energia, riconosce che i ricercatori di solito non ottengono informazioni così specifiche da altri settori, ma afferma che in questo caso potrebbe essere giustificato.
“Il tasso di crescita dei data center è senza dubbio insolito”, afferma Joshi. “Le aziende dovrebbero essere soggette a un controllo molto più rigoroso”.
Abbiamo domande sull’efficienza energetica
Le aziende che investono miliardi di dollari nell’IA hanno faticato a conciliare questa crescita della domanda energetica con i loro obiettivi di sostenibilità. A maggio, Microsoft ha dichiarato che le sue emissioni sono aumentate di oltre il 23% dal 2020, in gran parte a causa dell’IA, mentre l’azienda ha promesso di diventare carbon negative entro il 2030. “È diventato chiaro che il nostro percorso verso la carbon negatività è una maratona, non uno sprint”, ha scritto Microsoft.
Le aziende tecnologiche spesso giustificano questo carico di emissioni sostenendo che, molto presto, l’IA stessa sbloccherà efficienze che la renderanno positiva per il clima. Forse il sistema di IA giusto, secondo questo ragionamento, potrebbe progettare sistemi di riscaldamento e raffreddamento più efficienti per un edificio o aiutare a scoprire i minerali necessari per le batterie dei veicoli elettrici.
Ma non ci sono ancora segni che l’intelligenza artificiale sia stata utilizzata in modo utile per fare queste cose. Le aziende hanno condiviso aneddoti sull’uso dell’intelligenza artificiale per individuare i punti caldi delle emissioni di metano, ad esempio, ma non sono state abbastanza trasparenti da aiutarci a capire se questi successi superano l’aumento della domanda di elettricità e delle emissioni che le grandi aziende tecnologiche hanno prodotto nel boom dell’intelligenza artificiale. Nel frattempo, sono in programma altri data center e la domanda di energia dell’intelligenza artificiale continua a crescere.
La questione della “bolla”
Una delle grandi incognite nell’equazione energetica dell’IA è se la società adotterà mai l’IA ai livelli previsti dai piani delle aziende tecnologiche. OpenAI ha dichiarato che ChatGPT riceve 2,5 miliardi di richieste al giorno. È possibile che questo numero, e quelli equivalenti per altre aziende di IA, continuino a salire vertiginosamente nei prossimi anni. Le proiezioni pubblicate lo scorso anno dal Lawrence Berkeley National Laboratory suggeriscono che, se così fosse, la sola IA potrebbe consumare ogni anno una quantità di elettricità pari al 22% di quella consumata da tutte le famiglie statunitensi entro il 2028.
Ma quest’estate si sono anche visti segnali di rallentamento che hanno minato l’ottimismo del settore. Il lancio di GPT-5 da parte di OpenAI è stato considerato un fallimento, anche dalla stessa azienda, e questo fallimento ha portato i critici a chiedersi se l’IA stia raggiungendo un limite. Quando un gruppo del MIT ha scoperto che il 95% delle aziende non sta ottenendo alcun ritorno sui propri ingenti investimenti nell’IA, le azioni hanno subito un crollo. L’espansione dei data center specifici per l’IA potrebbe essere un investimento difficile da recuperare, soprattutto perché i ricavi delle aziende di IA rimangono sfuggenti.
Una delle maggiori incognite sul futuro carico energetico dell’IA non è quanto consuma una singola query, né qualsiasi altra cifra che possa essere divulgata. È piuttosto se la domanda raggiungerà mai la scala per cui le aziende stanno costruendo o se la tecnologia crollerà sotto il peso del proprio clamore. La risposta determinerà se l’attuale espansione diventerà un cambiamento duraturo nel nostro sistema energetico o un picco di breve durata.




