Skip to main content
Gemini / MTR IT

Negli ultimi anni, aziende e organizzazioni di ogni settore, incluso il mondo non profit, sono sempre più coinvolte nelle tematiche legate alla sostenibilità, all’adozione dei criteri ESG e al contributo agli obiettivi dell’Agenda 2030 delle Nazioni Unite.

A spingere in questa direzione concorrono diversi fattori: la crescente pressione normativa (si pensi, ad esempio, alla Corporate Sustainability Reporting Directive dell’Unione Europea), l’ambizione di rafforzare la propria reputazione come realtà sostenibile e una sincera volontà di coniugare gli obiettivi di crescita e profittabilità con il rispetto dell’ambiente e delle comunità.

In questo contesto, i dati rappresentano un elemento chiave della trasformazione: consentono una rendicontazione basata su evidenze oggettive, a supporto della narrazione di sostenibilità dell’organizzazione. Un esempio concreto è il rapporto di sostenibilità del Gruppo Ferrero, dove i dati vengono utilizzati per rafforzare il racconto. Se il ruolo del dato come leva per la sostenibilità è ormai consolidato, meno discusso è il tema opposto: il dato stesso può rappresentare un problema di sostenibilità?

Prendiamo i criteri ESG come riferimento. Al di là della retorica, se analizziamo il dato come asset tecnologico e organizzativo, possiamo considerarlo intrinsecamente conforme ai principi ESG? In altre parole: esiste il rischio che i dati possano generare impatti negativi su ambiente, società ed equità tali da richiedere un’attenzione specifica?

La risposta è sì. È ragionevole affermare che, nonostante le grandi potenzialità che vengono riconosciute a questo asset, anche il dato debba essere sottoposto a verifiche di conformità, valutandone l’impatto sociale e ambientale. Nei prossimi paragrafi utilizzerò i criteri ESG come cornice di riferimento (pur essendo l’esercizio applicabile ad altri modelli di sostenibilità) per esplorare il paradosso del dato: al tempo stesso motore e potenziale rischio per la sostenibilità.

L’intelligenza artificiale (AI), pur rappresentando una delle tecnologie più promettenti per il progresso economico e sociale, comporta un impatto ambientale non trascurabile. I modelli avanzati, in particolare quelli basati su deep learning e reti neurali di grandi dimensioni, richiedono enormi quantità di dati e potenza computazionale per l’addestramento e il funzionamento. Questi processi avvengono in data center ad alta intensità energetica, spesso alimentati da fonti non rinnovabili, con conseguente emissione di gas serra e consumo di risorse naturali. L’addestramento di un singolo modello linguistico può generare tonnellate di CO₂, equivalenti a centinaia di voli transcontinentali, come evidenziato da studi recenti e da report di organizzazioni come Greenpeace.

L’utilizzo continuativo di tali modelli, anche per attività quotidiane, amplifica ulteriormente il consumo energetico globale. Tuttavia, l’AI presenta una natura ambivalente: se da un lato contribuisce alle sfide ambientali, dall’altro può diventare un potente alleato per affrontarle. Ricerche come quella di Olawade e colleghi dimostrano come l’AI possa essere decisiva nel monitoraggio della qualità dell’aria, nella previsione di disastri naturali e nel controllo delle risorse idriche. Altri studi evidenziano il suo ruolo nel prevenire pandemie, migliorare la vivibilità urbana e persino ridurre i consumi energetici attraverso sistemi di ottimizzazione avanzata.

La comunità scientifica è oggi fortemente impegnata nel conciliare queste due dimensioni: mitigare l’impatto ambientale dell’AI e, al contempo, sfruttarne il potenziale per promuovere la sostenibilità. Il lavoro di Pimenow e colleghi dimostra come l’intelligenza artificiale, se adeguatamente governata, possa rappresentare sempre meno un rischio e sempre più un alleato nell’affrontare le sfide sociali e ambientali del nostro tempo.

Spostandoci sulla dimensione sociale, la “S” degli ESG, uno degli esempi più emblematici di impatto negativo è rappresentato dagli algoritmi biased, ossia influenzati da pregiudizi impliciti nei dati o nelle logiche di progettazione. Questi bias possono produrre conseguenze profonde, soprattutto per le comunità più vulnerabili. Quando un algoritmo riflette o amplifica stereotipi preesistenti, il rischio è quello di generare discriminazioni sistemiche in ambiti critici come l’accesso al credito, il mercato del lavoro, la giustizia penale o la sanità. Un caso noto è quello dei sistemi di riconoscimento facciale: modelli addestrati su dataset non rappresentativi tendono a commettere errori più frequenti nel riconoscere persone con tonalità di pelle scure, con gravi implicazioni per equità e diritti civili. L’assenza di trasparenza e di supervisione umana nei processi decisionali automatizzati aggrava il problema, rendendo difficile individuare e correggere i bias. Da qui l’urgenza di promuovere pratiche di sviluppo algoritmico responsabili, inclusive e verificabili, che pongano al centro etica e diversità.

Un altro fronte critico riguarda l’uso dei dati per la manipolazione delle masse. Algoritmi di profilazione e targeting, alimentati da enormi volumi di dati, consentono la creazione di contenuti personalizzati in grado di influenzare opinioni, polarizzare il dibattito pubblico e diffondere disinformazione. Questo fenomeno è particolarmente pericoloso in contesti politici, sanitari o sociali, dove la circolazione di notizie false può minare la fiducia nelle istituzioni, alimentare tensioni e compromettere la coesione sociale. Il caso Cambridge Analytica, a distanza di anni, resta un monito su ciò che può accadere con un uso non consensuale e malevolo dei dati.

Tuttavia, sarebbe riduttivo considerare il dato solo come fonte di rischio, ma anche in questo caso le opportunità di ribaltare lo scenario e rendere i dati strumento di promozione del benessere sono innegabili. La comunità può trarre enormi benefici da un utilizzo etico e consapevole dei dati. Il movimento Data for Good ne è un esempio: qualunque problema sociale, se affrontato con dati ben gestiti e valorizzati, può trovare soluzioni più efficaci. Gli esempi sono numerosi: dall’iniziativa dell’INDIRE– Istituto Nazionale di Documentazione, Innovazione e Ricerca Educativa, che nel 2025 ha lanciato un corso per insegnanti sull’uso dei dati per un’educazione inclusiva, fino al lavoro dell’Osservatorio “Non Una di Meno”, che aggiorna mensilmente i dati su femminicidi, lesbicidi e transfemminicidi in Italia per fornire conoscenza evidence-based su un tema cruciale. In sintesi, per ogni questione sociale di rilievo esiste oggi almeno un progetto, una ricerca o un’iniziativa che utilizza i dati, dalla semplice condivisione alla modellazione analitica, per contribuire alla soluzione del problema.

Sul fronte della governance, la responsabilità individuale assume un ruolo sempre più centrale nella gestione dei dati. Figure come il Chief Data Officer, Data Steward e persino analisti hanno oggi accesso a enormi quantità di informazioni sensibili, e le loro decisioni possono influenzare processi strategici, sistemi automatizzati e persino la reputazione aziendale. Questo potere crescente comporta rischi significativi: scelte errate, gestione superficiale o scarsa consapevolezza etica possono generare danni sistemici, discriminazioni algoritmiche, violazioni della privacy e perdita di fiducia da parte degli stakeholder. In assenza di una cultura solida della governance, il rischio è che il potere del singolo venga esercitato senza adeguati controlli, amplificando le vulnerabilità dell’intero ecosistema informativo.

Un esempio emblematico è il caso Purdue Pharma, raccontato nella serie Dopesick: un grafico volutamente distorto tramite l’uso arbitrario di una scala logaritmica fu utilizzato per minimizzare i rischi di dipendenza da ossicodone. Questo episodio, oltre a rappresentare una grave violazione etica, dimostra come anche aspetti apparentemente tecnici, come la visualizzazione dei dati, possano essere manipolati con conseguenze devastanti. Il video tratto dalla serie che si sofferma su questo passaggio è disponibile a questo link.

Sul versante positivo, i dati possono rafforzare la governance se gestiti con trasparenza e responsabilità. Un approccio etico alla raccolta, analisi e comunicazione dei dati non solo tutela ambiente e comunità, ma consente anche di misurare in modo rigoroso le performance di sostenibilità. Un esempio concreto è il Nasdaq ESG Data Portal, che aggrega e analizza dati ESG delle aziende quotate, offrendo agli investitori strumenti per valutare la qualità della governance e la solidità delle strategie di sostenibilità.

Il panorama attuale evidenzia quindi sfide complesse e stimolanti nel rapporto tra dati e sostenibilità. Il paradosso del dato risiede nella sua duplice natura: da un lato, motore di progresso e leva per la sostenibilità; dall’altro, potenziale rischio. Abbiamo visto che l’intelligenza artificiale può migliorare la qualità della vita, ma richiede risorse energetiche ingenti. I dati possono generare discriminazioni sistemiche, ma anche dare visibilità a fenomeni sociali altrimenti invisibili. La gestione umana del dato, infine, può seguire percorsi etici, con impatti positivi, oppure degenerare in pratiche scorrette, con conseguenze drammatiche.

Ciò che appare certo è che la sostenibilità, i criteri ESG e l’Agenda 2030 non rappresentano più una scelta strategica opzionale, ma un imperativo per qualsiasi organizzazione che voglia allinearsi ai valori del nostro tempo. In questo contesto, il dato assume un ruolo centrale: alimenta l’impegno verso la sostenibilità attraverso misurazioni, analisi e insight significativi. Tuttavia, questa funzione può essere svolta solo attraverso una pianificazione strutturata e processi di governance solidi, che garantiscano qualità, trasparenza e responsabilità.

Al tempo stesso, il dato stesso deve diventare oggetto di monitoraggio e valutazione. Il suo ruolo pervasivo nella quotidianità operativa, amplificato dall’avvento dei modelli di intelligenza artificiale, solleva interrogativi cruciali sulla conformità di queste tecnologie ai principi di impatto ambientale, sociale e di governance. La sfida, dunque, non è solo usare i dati per misurare la sostenibilità, ma rendere i dati, e le tecnologie che li governano, sostenibili essi stessi.

Proprio in questi giorni il Premio Nobel per l’Economia 2025 è stato assegnato a Joel Mokyr, Philippe Aghion e Peter Howitt «per aver spiegato la crescita economica guidata dall’innovazione» e il ruolo della tecnologia. I loro contributi si focalizzano sull’impatto dell’innovazione nella società da una prospettiva economica. Gli studiosi non discutono di sostenibilità ma le loro teorie si sono focalizzate sui concetti dei “prerequisiti di una crescita economica duratura attraverso il progresso tecnologico” e della “teoria della crescita sostenuta attraverso la distruzione creativa”.

L’innovazione porta cambiamento, non sempre positivo se l’innovazione non viene messa nelle condizioni migliori per trasformarsi in progresso. In particolare, Aghion e Howitt hanno evidenziato che l’innovazione, in quanto “novità” ha una componente creativa in grado di generare valore. Allo stesso tempo però può essere “distruttiva”, in grado quindi di eliminare valore, perché inevitabilmente si pone in contrapposizione con lo status quo.

Questa riflessione si applica perfettamente anche al tema dei dati nell’ambito della sostenibilità e alla loro duplice natura: capaci di generare valore o, al contrario, di distruggerlo.

Credo che l’approccio alle innovazioni debba sempre essere positivo, orientato a governarne i rischi intrinseci per valorizzare appieno il loro potenziale a beneficio della comunità e dell’ambiente che ci circonda.

Questo vale anche per i dati e l’intelligenza artificiale.