
L’aumento dei costi energetici dei data center è un banco di prova fondamentale per capire come affrontare la più ampia elettrificazione dell’economia.
Con una domanda di intelligenza artificiale che sembra non avere limiti, tutti i settori dell’energia, dell’IA e del clima sono giustamente preoccupati. Ci sarà abbastanza elettricità pulita per alimentare l’intelligenza artificiale e abbastanza acqua per raffreddare i centri dati che supportano questa tecnologia? Si tratta di domande importanti con serie implicazioni per le comunità, l’economia e l’ambiente.
Ma la questione dell’utilizzo dell’energia da parte dell’IA è un’anticipazione di problemi ancora più grandi, relativi a ciò che dobbiamo fare per affrontare il cambiamento climatico nei prossimi decenni. Se non riusciamo a capire come gestire questo aspetto, non saremo in grado di gestire una più ampia elettrificazione dell’economia e i rischi climatici che dobbiamo affrontare aumenteranno.
L’innovazione informatica ci ha portato a questo punto. Le unità di elaborazione grafica (GPU) che alimentano il calcolo alla base dell’intelligenza artificiale sono diminuite del 99% dal 2006. All’inizio degli anni 2010 c’era un’analoga preoccupazione per l’utilizzo di energia da parte dei data center, con proiezioni di crescita della domanda di elettricità. Ma i guadagni in termini di potenza di calcolo e di efficienza energetica non solo hanno smentito queste proiezioni, ma hanno consentito un aumento del 550% della capacità di calcolo globale dal 2010 al 2018, con un incremento minimo del consumo energetico.
Alla fine degli anni 2010, tuttavia, le tendenze che ci avevano salvato hanno iniziato a rompersi. Con il netto miglioramento dell’accuratezza dei modelli di intelligenza artificiale, anche l’elettricità necessaria per i data center ha iniziato a crescere più rapidamente; ora rappresentano il 4,4% della domanda totale, rispetto all’1,9% del 2018. I data center consumano più del 10% della fornitura di elettricità in sei Stati USA. In Virginia, che è emersa come centro di attività dei data center, questa cifra è del 25%.
Le proiezioni sulla futura domanda di energia per alimentare l’IA sono incerte e variano molto, ma in uno studio il Lawrence Berkeley National Laboratory ha stimato che i data center potrebbero rappresentare dal 6% al 12% del consumo totale di elettricità negli Stati Uniti entro il 2028. Le comunità e le aziende noteranno questo tipo di rapida crescita della domanda di elettricità. Questo metterà sotto pressione i prezzi dell’energia e gli ecosistemi. Le proiezioni hanno portato a chiedere la costruzione di molte nuove centrali elettriche a combustibile fossile o la dismissione di quelle più vecchie. In molte parti degli Stati Uniti, la domanda si tradurrà probabilmente in un aumento delle centrali a gas naturale.
È una situazione scoraggiante. Tuttavia, se facciamo uno zoom, il consumo di elettricità previsto dall’IA è ancora piuttosto ridotto. L’anno scorso gli Stati Uniti hanno generato circa 4.300 miliardi di chilowattora. Probabilmente avremo bisogno di altri 1.000-1.200 miliardi o più nel prossimo decennio, con un aumento del 24-29%. Quasi la metà della domanda supplementare di elettricità sarà dovuta ai veicoli elettrificati. Un altro 30% dovrebbe provenire da tecnologie elettrificate negli edifici e nell’industria. Anche l’innovazione nell’elettrificazione dei veicoli e degli edifici è progredita nell’ultimo decennio e questo cambiamento sarà una buona notizia per il clima, per le comunità e per i costi energetici.
Si stima che il restante 22% della nuova domanda di elettricità derivi dall’intelligenza artificiale e dai data center. Pur rappresentando una fetta più piccola della torta, è quella più urgente. A causa della loro rapida crescita e della loro concentrazione geografica, i data center rappresentano la sfida dell’elettrificazione che dobbiamo affrontare in questo momento: le piccole cose che dobbiamo risolvere prima di essere in grado di fare le grandi cose come i veicoli e gli edifici.
Dobbiamo anche capire cosa ci fanno guadagnare i consumi energetici e le emissioni di carbonio associati all’IA. Sebbene l’impatto della produzione di semiconduttori e dell’alimentazione dei centri dati dell’IA sia importante, è probabile che sia modesto rispetto agli effetti positivi o negativi che l’IA può avere su applicazioni come la rete elettrica, il sistema dei trasporti, gli edifici e le fabbriche o il comportamento dei consumatori. Le aziende potrebbero usare l’intelligenza artificiale per sviluppare nuovi materiali o batterie che integrino meglio le energie rinnovabili nella rete elettrica. Ma potrebbero anche usare l’intelligenza artificiale per rendere più facile la ricerca di combustibili fossili. Le affermazioni sui potenziali benefici per il clima sono entusiasmanti, ma devono essere costantemente verificate e avranno bisogno di sostegno per essere realizzate.
Non è la prima volta che ci troviamo di fronte a problemi di crescita della domanda di elettricità. Negli anni ’60, la domanda di elettricità negli Stati Uniti cresceva di oltre il 7% all’anno. Negli anni ’70 la crescita è stata di quasi il 5% e negli anni ’80 e ’90 di oltre il 2% all’anno. Poi, a partire dal 2005, abbiamo avuto un decennio e mezzo di crescita piatta dell’elettricità. Secondo la maggior parte delle proiezioni per il prossimo decennio, la crescita prevista della domanda di energia elettrica si attesterà nuovamente intorno al 2%, ma questa volta dovremo agire in modo diverso.
Per gestire queste nuove richieste di energia, abbiamo bisogno di un “Grid New Deal” che faccia leva su capitali pubblici e privati per ricostruire il sistema elettrico per l’IA con capacità e intelligenza sufficienti per la decarbonizzazione. Nuove forniture di energia pulita, investimenti nella trasmissione e nella distribuzione e strategie di gestione della domanda virtuale possono ridurre le emissioni, abbassare i prezzi e aumentare la resilienza. I centri di elaborazione dati che apportano elettricità pulita e aggiornamenti al sistema di distribuzione potrebbero beneficiare di una corsia preferenziale per connettersi alla rete. Le banche per le infrastrutture potrebbero finanziare nuove linee di trasmissione o pagare per aggiornare quelle esistenti. Gli investimenti diretti o gli incentivi fiscali potrebbero incoraggiare standard informatici puliti, lo sviluppo della forza lavoro nel settore dell’energia pulita e la trasparenza dei dati aperti da parte degli operatori dei centri dati sul loro utilizzo di energia, in modo che le comunità possano comprendere e misurare gli impatti.
Nel 2022, la Casa Bianca ha pubblicato un progetto per una Carta dei diritti dell’IA che prevedeva principi per proteggere i diritti, le opportunità e l’accesso alle risorse critiche del pubblico dalle limitazioni dei sistemi di IA. Alla Carta dei diritti dell’IA, offriamo umilmente un emendamento sul clima, perché l’IA etica deve essere un’IA sicura per il clima. È un punto di partenza per garantire che la crescita dell’IA funzioni per tutti: che non aumenti le bollette energetiche dei cittadini, che aggiunga alla rete elettrica più energia pulita di quanta ne utilizzi, che aumenti gli investimenti nell’infrastruttura del sistema energetico e che porti benefici alle comunità, promuovendo al contempo l’innovazione.
Basando la conversazione sull’IA e l’energia sul contesto di ciò che è necessario per affrontare il cambiamento climatico, possiamo ottenere risultati migliori per le comunità, gli ecosistemi e l’economia. La crescita della domanda di elettricità per l’IA e i data center è un banco di prova per capire come la società risponderà alle richieste e alle sfide di una più ampia elettrificazione. Se sbagliamo, la probabilità di raggiungere i nostri obiettivi climatici sarà estremamente bassa. Questo è ciò che intendiamo quando diciamo che gli impatti energetici e climatici dei data center sono piccoli, ma anche enormi.
Costa Samaras è professore fiduciario di Ingegneria civile e ambientale e direttore dello Scott Institute for Energy Innovation della Carnegie Mellon University.
Emma Strubell è Raj Reddy Assistant Professor presso il Language Technologies Institute della School of Computer Science della Carnegie Mellon University.
Ramayya Krishnan è preside dell’Heinz College of Information Systems and Public Policy e William W. and Ruth F. Cooper Professor of Management Science and Information Systems alla Carnegie Mellon University.





