Seguici
Iscriviti alla nostra newsletter

    I social non ci salveranno dall’hate speech

    La moderazione dei contenuti non basta, e non funziona: servono linee guida e strumenti per la prevenzione. L’iniziativa del Mit per migliorare la presenza social nel mondo

    A tutti piace esprimere la propria opinione online, essere ascoltati dagli amici e rispondere a tono agli avversari. Allo stesso tempo, però, non vogliamo essere esposti a discorsi inappropriati o sopra le righe.

    Le aziende tecnologiche affrontano questo dilemma stabilendo standard per la libertà di parola, una pratica protetta dalla legge federale statunitense. Assumono moderatori interni per esaminare singoli contenuti e rimuoverli se i post violano le regole predefinite stabilite dalle piattaforme.

    Eppure l’approccio si dimostra chiaramente insufficiente: molestie, disinformazione su argomenti come la salute pubblica o fantomatiche ingerenze elettorali dilagano incontrollate.

    Non solo. Anche nel caso in cui i moderatori dovessero svolgere il proprio compito impeccabilmente, questo approccio non risolve una serie di problemi che con la moderazione non hanno nulla a che fare. Quando il problema non è linguistico serve una nuova strategia: trattare le società di social media come potenziali inquinatori del tessuto sociale e determinare come si possa direttamente misurare e mitigare gli effetti che le loro scelte hanno sulla popolazione.

    Si tratta di stabilire una linea d’azione, eventualmente anche istituendo un’agenzia di controllo della qualità come già ne esistono per la protezione dell’ambiente o l’approvazione dei farmaci, per i social media, capace di identificare e valutare i danni alla società generati da queste piattaforme. Nel caso in cui tali danni fossero riconosciuti e reiterati, tale agenzia dovrebbe avere il potere di agire in proposito.

    Per andare oltre l’insufficiente strumento della moderazione dei contenuti, è necessario formulare linee guida e strumenti di comprovata efficacia

    La moderazione (automatica o umana) può potenzialmente funzionare per ciò che chiamiamo danni “acuti”: quelli causati direttamente da singoli contenuti. Il nuovo approccio è reso necessario dall’esistenza di problemi “strutturali” – questioni come la discriminazione, i rischi per la salute mentale e l’attacco alla fiducia civica – risultato della diffusione del prodotto social in sé, piuttosto che di qualsiasi singolo contenuto.

    Un famoso esempio di questo tipo di problema strutturale sono gli esperimenti sul “contagio emotivo” condotti da Facebook nel 2012, che hanno dimostrato come il coinvolgimento degli utenti (il loro stato d’animo valutato in base al comportamento sulla piattaforma) cambiasse in modo misurabile a seconda della versione del prodotto a cui erano esposti.

    A seguito dell’esposizione pubblica di questi esperimenti, Facebook (ora Meta) ha posto fine a questo tipo di studi deliberati, ma il fatto che abbia interrotto l’analisi di tali effetti non significa che l’azienda abbia smesso di fare uso dei risultati raccolti in anni di studio.

    I problemi strutturali connaturati alle aziende di social media sono la diretta conseguenza di una scelta di prodotto. I product manager di società tecnologiche come Facebook, YouTube e TikTok sono incentivati ​​a concentrarsi in modo schiacciante sulla massimizzazione del tempo speso dagli utenti sulle piattaforme e sul loro grado di coinvolgimento.

    In questo campo, le forme di sperimentazione sono ancora in corso e particolarmente vivaci: quasi ogni modifica del prodotto viene distribuita a un pubblico di test ristretto tramite prove controllate randomizzate. Per valutare i progressi fatti, le aziende implementano rigorosi processi di gestione per promuovere le loro missioni centrali (note come Obiettivi e Risultati Chiave, o OKR), anche utilizzando questi risultati per determinare bonus e promozioni.

    La responsabilità di confrontarsi con le conseguenze delle decisioni prese sui prodotti è spesso affidata ad altri gruppi di ricerca spesso privi dell’autorità o degli strumenti necessari ad affrontare le cause profonde dei problemi che rilevano. Questi team sono generalmente in grado di reagire in caso di danni acuti. Non sono generalmente attrezzati per affrontare i problemi causati dai prodotti stessi.

    Con attenzione e concentrazione, questa stessa struttura di sviluppo del prodotto potrebbe essere indirizzata allo studio di soluzioni per i danni causati alla società umana. Prendiamo in considerazione la testimonianza di Frances Haugen al Congresso statunitense l’anno scorso (sostenuta dalle rivelazioni dei media) sul presunto impatto di Facebook sulla salute mentale degli adolescenti.

    Facebook ha risposto alle critiche spiegando di aver condotto uno studio sull’opinione degli adolescenti rispetto agli eventuali effetti negativi dei propri prodotti sulla loro salute mentale e se tale percezione li inducesse a utilizzare il prodotto di meno. Tale studio non rivela quanto il prodotto abbia effettivamente un effetto dannoso sulla psiche degli adolescenti, ma illustra come sia possibile condurre ricerche mirate sulla questione della salute mentale, invece che sulla ‘salute commerciale’ del prodotto.

    Incorporare in queste ricerche delle valutazioni sul danno sistemico provocato dalle aziende tecnologiche, non sarà facile. Si tratterebbe di stabilire cosa possa essere effettivamente misurato in maniera rigorosa e sistematica, cosa può essere richiesto alle aziende e quali aspetti rendere prioritari in tali valutazioni.

    Le aziende potrebbero implementare dei propri protocolli, ma i loro interessi finanziari sono spesso in conflitto con l’adozione di significative limitazioni allo sviluppo e alla crescita del prodotto. Si tratta di un caso evidente a favore della creazione di regole pubbliche per regolamentare un ambito privato.

    Che si tratti di un nuovo mandato legale della Federal Trade Commission o di linee guida emesse da una nuova agenzia governativa, il compito dell’autorità di regolamentazione sarebbe quello di collaborare con le società tecnologiche al fine di costituire i protocolli necessari a riconoscere il potenziale rischio di un nuovo prodotto già in fase di sviluppo.

    Questo approccio può sembrare ingombrante, ma le aziende più grandi (principale obiettivo di queste potenziali nuove pratiche) non dovrebbero incontrare difficoltà nell’incorporare nuovi protocolli, essendo già abituate ad integrare, in fase di sviluppo, studi randomizzati controllati dal punto di vista dell’efficacia dei prodotti.

    L’aspetto più complesso della faccenda sarebbe proprio la definizione di questi famosi standard; l’effettiva esecuzione del test non richiederebbe affatto la partecipazione normativa. Basterebbe aggiungere delle domande diagnostiche alle normali domande poste sulla crescita commerciale dei prodotti. I dati raccolti dovrebbero però essere poi messi a disposizione di revisori esterni.

    Lo studio condotto in proposito da MIT Technology Review sarà presentato prossimamente in occasione della conferenza ACM del 2022 su ‘Equità e accesso negli algoritmi, nei meccanismi e nell’ottimizzazione.’ lo studio delinea in maniera più dettagliata la procedura proposta, nonché come possa essere stabilita in modo efficace.

    Quando prodotti che raggiungono decine di milioni di utenti vengono testati sulla loro capacità di incrementare il coinvolgimento delle persone, le aziende dovrebbero garantire che tali prodotti, nell’insieme, rispettino l’idea di “non peggiorare il problema”. Nel tempo, si potrebbero poi stabilire standard sempre più aggressivi capaci di annullare gli effetti negativi dei prodotti già esistenti.

    Esistono già dei metodi che potrebbero rivelarsi adatti a questo tipo di processo. Vedi protocolli come il misuratore dell’impatto fotografico, utilizzato a livello diagnostico per valutare come l’esposizione a prodotti e servizi influisce sull’umore.

    Le piattaforme tecnologiche già utilizzano sondaggi per valutare l’evoluzione dei propri prodotti; secondo i giornalisti Cecilia Kang e Sheera Frankel, Mark Zuckerberg esamina metriche di crescita basate sui sondaggi per la maggior parte delle decisioni che prende sui suoi prodotti. Proprio i risultati di queste analisi l’avrebbero portato, dopo le elezioni del 2020, a rivedere le sue decisioni sulla versione “più carina” dell’algoritmo che determina il feed di notizie generato Facebook.

    Sarebbe ragionevole domandarsi cosa ne pensa l’industria tecnologica di questo potenziale approccio: sarebbero capaci di accettarlo? O gli farebbero la guerra?

    Il primo feedback che abbiamo ricevuto è stato positivo, forse perché, secondo il nostro approccio, la maggior parte delle decisioni sui prodotti attuali passerebbe l’esame (i danni che stiamo cercando qui di evitare sono di tale livello da essere già evitati dalla maggior parte dei prodotti.) E a differenza di altre proposte, la strategia qui proposta evita di imporre linit alla libertà di parola, con l’eccezione dei casi più estremi.

    Allo stesso tempo, non è il caso di attendere un intervento da parte di enti regolatori governativi. Le aziende potrebbero attuare procedure simili anche subito, di propria iniziativa. Stabilire le ragioni per il cambiamento, tuttavia, è difficile senza prima iniziare a raccogliere il tipo di dati di alta qualità che stiamo descrivendo qui.

    Il fatto è che, in assenza di una misurazione in tempo reale dei danni provocati dai social media, non si può ancora provare che questi sussistano. Siamo di fronte ad un tipico dilemma tipo uovo/gallina. Il monitoraggio proattivo dei danni strutturali non risolverà i problemi di contenuto delle piattaforme. Ma potrebbe permetterci di verificare in modo significativo e continuo se l’interesse pubblico viene sovvertito.

    Si può portare ad esempio il caso della US Environmental Protection Agency. Scopo originale dell’agenzia non era legiferare sulla politica ambientale, ma emanare gli standard e protocolli necessari a formulare politiche efficaci di protezione dell’ambiente. Da questo punto di vista, l’impatto duraturo dell’EPA non è stato quello di risolvere i dibattiti di politica ambientale (non l’ha fatto), ma di renderli possibili.

    Allo stesso modo, il primo passo per correggere i social media è creare l’infrastruttura necessaria ad esaminare in tempo reale i risultati di un prodotto in termini di libertà di parola, benessere mentale e fiducia civica. Senza questo passaggio, non è possibile affrontare i tanti problemi urgenti generati dalle piattaforme dei social media.

    Photo by Noah Buscher on Unsplash

    Related Posts
    Continua

    Come e perché imparare dalle api

    La cosiddetta "intelligenza di sciame” è applicabile anche alle comunità umane? Gli esperti Paola Scarpa, Andrea Pietrini, Federico Frattini a confronto su un tema affascinante per le società presenti e future
    Total
    0
    Share