Skip to main content
Dall-e/MIT TR IT

A novembre 2022, la diffusione di genAI ha segnato un punto di svolta con l’adozione massiccia e senza precedenti della tecnologia AI, accompagnata da straordinarie e talvolta eccessive estrapolazioni sulle sue potenzialità, come il dominio della coscienza e delle emozioni.

Meno discussa, ma certamente più rilevante, è l’influenza delle AI generative sul contenuto che riceviamo e consumiamo, fino a raggiungere una percezione distorta del mondo. Oggi l’era della disinformazione e della misinformation raggiunge un nuovo livello. La bolla generativa sostituisce la filter bubble per potenza dei suoi meccanismi e impatto delle sue conseguenze.

Dalla filter bubble…

Il concetto di filter bubble è stato coniato nel 2012 dall’imprenditore americano Eli Pariser per descrivere il filtraggio delle informazioni ricevute sui social media attraverso raccomandazioni algoritmiche. In pratica, questi algoritmi classificano gli utenti sulla base di somiglianze statistiche nel loro profilo statico e dinamico, incluso il comportamento sulla piattaforma (tipo di account seguiti, contenuti preferiti e commentati, sentiment espressi).

Evoluzione da Filter Bubble a Generative Bubble

Evoluzione da Filter Bubble a Generative Bubble

Quando il sistema di raccomandazione è progettato male, può portare a una rigidità delle classi: gli utenti restano confinati nella stessa classe e non ne escono mai. Queste classi si trasformano in bolle che filtrano le informazioni in base a ciò che vedono gli altri utenti della stessa classe. La filter bubble amplifica la diffusione di fake news e teorie del complotto (D. Boullier, 2023) a causa del bias di conferma. Ad esempio, se appartieni a una classe in cui il 90% degli utenti crede che la Terra sia piatta, l’algoritmo ti proporrà contenuti che rinforzano questa convinzione.

…alla generative bubble

Oggi alcuni algoritmi continuano a filtrare i contenuti sui social media, ma un ulteriore livello di contenuti è generato da algoritmi dedicati integrati in tecnologie di chatbot come Gemini, ChatGPT, Le Chat, Copilot o Jasper. La qualità dei contenuti generati dipende fortemente dalla qualità della richiesta o del prompt.

Sebbene le filter bubble e le generative bubble siano simili nel limitare la diversità di prospettive, differiscono nei loro meccanismi. La filter bubble confina l’utente in un ecosistema informativo filtrato dagli algoritmi, mentre la generative bubble descrive la tendenza dell’utente a interagire con lo strumento generativo in modo ristretto o distorto, spesso a causa di abitudini, conoscenze limitate o del design stesso dello strumento.

Schema dei Bias nella Generative Bubble

Schema dei Bias nella Generative Bubble

Mentre la filter bubble limita l’accesso a idee diverse, la generative bubble impedisce un approccio critico nell’uso degli strumenti. La prima genera una discriminazione esterna, filtrando i contenuti disponibili, mentre la seconda introduce una discriminazione interna, legata a come l’utente utilizza lo strumento.

La doppia discriminazione della generative AI

Le AI generative portano a una doppia discriminazione (A. Jean et al., 2025): quella già studiata dei bias algoritmici (C. O’Neil, 2016; K. Crawford, 2021) e una nuova forma di adoption bias. Il livello di istruzione, la cultura e l’età degli utenti influenzano il modo in cui scrivono i prompt. Alcuni utenti utilizzano richieste troppo vaghe, non definiscono criteri specifici o si affidano ai risultati generati senza metterli in discussione.

Questo fenomeno non riguarda solo le persone con un basso livello di istruzione. Anche gli utenti più istruiti possono non cogliere tutte le sfumature tecniche o semantiche delle risposte generate. Studi recenti hanno dimostrato differenze significative nelle risposte generate (P. F. Funk et al., 2024), che possono compromettere la precisione intrinseca della tecnologia AI generativa.

Come combattere la generative bubble

La filter bubble può essere evitata con una buona governance dell’AI (A. Jean et al., 2023), che include best practice dall’ideazione del problema fino all’utilizzo da parte di milioni di utenti. Questa governance deve essere estesa anche alle generative bubble, introducendo componenti aggiuntive per garantire che l’utente comprenda appieno la tecnologia e come usarla.

Flusso di AI Governance per Evitare la Generative Bubble

Flusso di AI Governance per Evitare la Generative Bubble

  • Informare l’utente sui possibili adoption bias: sensibilizzare sugli effetti di fattori come età, livello di istruzione e lingua nativa.
  • Guidare l’utente: migliorare le competenze di utilizzo, insegnando a formulare richieste, interpretare le risposte generate e verificare la loro accuratezza.
  • Incoraggiare la sperimentazione attiva: spingere gli utenti a testare formulazioni di prompt diverse e a esplorare le funzionalità dello strumento.
  • Testare con proxy sociali e culturali diversi: integrare test con gruppi di beta tester selezionati.
  • Back-test esplicito e implicito: raccogliere feedback esplicito dagli utenti e dati di comportamento per confrontarli con profili identificati.
  • Rivalutare continuamente l’ergonomia della tecnologia: migliorare costantemente le funzionalità basandosi sui risultati dei test.

Un’era di nuove dinamiche informative

L’informazione è potere, ma l’informazione condivisa è superpotere (A. Jean et al., 2024). Entriamo in un’era in cui l’informazione è condivisa come mai prima, attraverso piattaforme di open data, open source, internet e social media. Tuttavia, la quantità di informazione e la sua qualità richiedono una maggiore attenzione all’adozione e all’utilizzo delle tecnologie di comunicazione AI.

 

Aurelie Jean, scienziata computazionale, imprenditrice e autrice.
Guillaume Sibout, esperto in scienze umane digitali e autore.
Mark Esposito è Professore Ordinario  presso Hult International Business School e Harvard University’s Berkman Klein Center & Harvard Kennedy School.
Terence Tse e’ Ordinario di Finanza presso Hult Int’l Business School e Co-Fondatore di Nexus FrontierTech.