Skip to main content
Stephanie Arnett/MIT Technology Review | Adobe Stock, Envato

Le emissioni dei centri dati sono triplicate dal 2018. Con la diffusione di modelli di intelligenza artificiale più complessi, come Sora di OpenAI, è probabile che queste cifre salgano alle stelle.

Non è un segreto che l’attuale boom dell’intelligenza artificiale stia consumando immense quantità di energia. Ora abbiamo un’idea più precisa di quanto.

Un nuovo studio, realizzato da un team della Harvard T.H. Chan School of Public Health, ha esaminato 2.132 data center operanti negli Stati Uniti (il 78% di tutte le strutture del Paese). Queste strutture – essenzialmente edifici pieni di file di server – sono il luogo in cui vengono addestrati i modelli di intelligenza artificiale e vengono “pingati” ogni volta che inviamo una richiesta attraverso modelli come ChatGPT. Richiedono enormi quantità di energia sia per alimentare i server che per mantenerli freschi.

Dal 2018, le emissioni di carbonio dei data center negli Stati Uniti sono triplicate. Nei 12 mesi terminati ad agosto 2024, i data center sono stati responsabili di 105 milioni di tonnellate di CO2 , pari al 2,18% delle emissioni nazionali (a titolo di confronto, le compagnie aeree commerciali nazionali sono responsabili di circa 131 milioni di tonnellate). Circa il 4,59% di tutta l’energia utilizzata negli Stati Uniti è destinata ai data center, una cifra che è raddoppiata dal 2018.

È difficile stabilire quanto l’IA, in particolare, che è in piena espansione da quando ChatGPT è stato lanciato nel novembre 2022, sia responsabile di questa impennata. Questo perché i centri dati elaborano molti tipi di dati diversi: oltre ad addestrare o inviare modelli di IA, si occupano di tutto, dall’hosting di siti web all’archiviazione di foto nel cloud. Tuttavia, secondo i ricercatori, la quota dell’IA sta certamente crescendo rapidamente, poiché quasi tutti i segmenti dell’economia cercano di adottare questa tecnologia.

“È un’impennata notevole”, afferma Eric Gimon, senior fellow del think tank Energy Innovation, che non ha partecipato alla ricerca. “Ci sono un sacco di analisi senza fiato sulla rapidità di questa crescita esponenziale. Ma è ancora presto per capire l’efficienza o i diversi tipi di chip”.

In particolare, le fonti di energia sono particolarmente “sporche”. Poiché molti data center sono situati in regioni produttrici di carbone, come la Virginia, l'”intensità di carbonio” dell’energia utilizzata è superiore del 48% rispetto alla media nazionale. Il documento, pubblicato su arXiv e non è ancora stato sottoposto a revisione paritaria, ha rilevato che il 95% dei data center negli Stati Uniti è costruito in luoghi con fonti di elettricità più sporche della media nazionale.

Ci sono altre cause oltre alla semplice ubicazione nel paese del carbone, afferma Falco Bargagli-Stoffi, autore del documento. L’energia più sporca è disponibile per tutto il giorno”, afferma, e molti data center ne hanno bisogno per mantenere il picco di funzionamento 24 ore su 24. “L’energia rinnovabile, come quella eolica o solare, potrebbe non essere altrettanto disponibile”. Anche gli incentivi politici o fiscali e le resistenze locali possono influire sui luoghi in cui vengono costruiti i data center.

Un cambiamento chiave nell’IA in questo momento significa che le emissioni del campo sono destinate a salire alle stelle. I modelli di IA si stanno rapidamente spostando da generatori di testo piuttosto semplici come ChatGPT verso generatori di immagini, video e musica molto complessi. Finora molti di questi modelli “multimodali” sono rimasti bloccati nella fase di ricerca, ma la situazione sta cambiando.

OpenAI ha rilasciato il suo modello di generazione video Sora al pubblico il 9 dicembre, e il suo sito web è stato talmente inondato di traffico da persone desiderose di provarlo che non funziona ancora correttamente. I modelli concorrenti, come Veo di Google e Movie Gen di Meta, non sono ancora stati rilasciati pubblicamente, ma se queste aziende seguiranno l’esempio di OpenAI come hanno fatto in passato, potrebbero farlo presto. I modelli di generazione musicale di Suno e Udio sono in crescita (nonostante le cause legali) e Nvidia ha rilasciato il proprio generatore audio il mese scorso. Google sta lavorando al suo progetto Astra, che sarà un compagno video-AI in grado di conversare con l’utente sull’ambiente circostante in tempo reale.

“Quando si passa alle immagini e ai video, le dimensioni dei dati aumentano in modo esponenziale”, afferma Gianluca Guidi, dottorando in intelligenza artificiale presso l’Università di Pisa e l’IMT di Lucca, autore principale dell’articolo. Se a questo si aggiunge un’adozione più ampia, le emissioni salteranno presto.

Uno degli obiettivi dei ricercatori era quello di creare un modo più affidabile per ottenere istantanee della quantità di energia utilizzata dai data center. È stato un compito più complicato di quanto ci si possa aspettare, dato che i dati sono dispersi in una serie di fonti e agenzie. Ora hanno costruito un portale che mostra le emissioni dei centri dati in tutto il Paese. L’obiettivo a lungo termine della pipeline di dati è quello di informare i futuri sforzi normativi per limitare le emissioni dei data center, che si prevede cresceranno enormemente nei prossimi anni.

“Ci sarà una maggiore pressione tra la comunità attenta all’ambiente e alla sostenibilità e le Big Tech”, afferma Francesca Dominici, direttore della Harvard Data Science Initiative e altra coautrice. “Ma la mia previsione è che non ci sarà una regolamentazione. Non nei prossimi quattro anni”.