
L’azienda di social media ha una strada difficile da percorrere se vuole che il fact-checking della comunità abbia successo.
All’inizio di questo mese, Mark Zuckerberg ha annunciato che Meta ridurrà i suoi sforzi di moderazione dei contenuti ed eliminerà il fact-checking negli Stati Uniti a favore dell’approccio più “democratico” che X (ex Twitter) chiama Community Notes, annullando le protezioni che, a suo dire, erano state sviluppate solo in risposta alle pressioni dei media e dei governi.
La mossa sta sollevando campanelli d’allarme, e a ragione. Meta ha lasciato dietro di sé una scia di controversie sulla moderazione, dalla moderazione eccessiva di immagini di donne che allattano fino alla sotto-moderazione di discorsi di odio in Myanmar, che hanno contribuito al genocidio dei musulmani Rohingya. Nel frattempo, la fine del fact-checking professionale crea il potenziale per la disinformazione e l’odio di diffondersi senza controllo.
L’arruolamento di volontari è il modo in cui la moderazione è nata su Internet, molto prima che i giganti dei social media si rendessero conto della necessità di un impegno centralizzato. E la moderazione volontaria può avere successo, consentendo lo sviluppo di regolamenti su misura allineati alle esigenze di particolari comunità. Ma senza un impegno significativo e una supervisione da parte di Meta, questo sistema non può far fronte alla quantità di contenuti condivisi sulle piattaforme aziendali e alla loro velocità. In effetti, non si sa ancora quanto funzioni bene su X, che è usato dal 21% degli americani (Meta è molto più popolare – solo Facebook è usato dal 70% degli americani, secondo Pew).
Community Notes, nato nel 2021 con il nome di Birdwatch, è un sistema di moderazione su X guidato dalla comunità che consente agli utenti che si iscrivono al programma di aggiungere un contesto ai post. Il fatto che gli utenti abituali forniscano un fact-checking pubblico è relativamente nuovo e finora i risultati sono contrastanti. Ad esempio, i ricercatori hanno scoperto che i partecipanti sono più propensi a contestare i contenuti con cui non sono d’accordo politicamente e che segnalare i contenuti come falsi non riduce l’impegno, ma hanno anche scoperto che le note sono in genere accurate e possono contribuire a ridurre la diffusione di post fuorvianti.
Sono un moderatore della comunità che fa ricerche sulla moderazione della comunità. Ecco cosa ho imparato sui limiti dell’affidarsi a volontari per la moderazione e cosa deve fare Meta per avere successo:
1. Il sistema non noterà le falsità e potrebbe amplificare i contenuti d’odio.
Con questo stile di moderazione c’è il rischio concreto che solo i post che riguardano cose di cui molte persone sono a conoscenza vengano segnalati in modo tempestivo, o addirittura non vengano segnalati affatto. Si pensi a come potrebbe essere gestito un post con la foto di un fungo cappuccino e la didascalia “Gustoso” in un sistema di moderazione di tipo Community Notes. Se un esperto di micologia non vede il post, o lo vede solo dopo che è stato ampiamente condiviso, potrebbe non essere segnalato come “Velenoso, non mangiare”, almeno finché non è troppo tardi. Le aree tematiche più esoteriche saranno sminuite. Ciò potrebbe avere gravi ripercussioni sia sui singoli individui (che potrebbero mangiare un fungo velenoso) sia sulla società (se una falsità si diffonde ampiamente).
In particolare, le note della comunità di X non sono visibili ai lettori quando vengono aggiunte per la prima volta. Una nota diventa visibile alla base di utenti più ampia solo quando un numero sufficiente di collaboratori ne approva l’accuratezza votandola. E non tutti i voti contano. Se una nota è votata solo da persone che tendono ad essere d’accordo tra loro, non sarà visibile. X non rende visibile una nota finché non c’è l’accordo di persone che sono state in disaccordo con le valutazioni precedenti. È un tentativo di ridurre i pregiudizi, ma non è infallibile. Si basa ancora sulle opinioni delle persone su una nota e non sui fatti reali. Spesso ciò che serve è la competenza.
Io modero una comunità su Reddit chiamata r/AskHistorians. È un sito di storia pubblica con oltre 2 milioni di membri ed è moderato in modo molto rigoroso. Vediamo continuamente persone che sbagliano i fatti. A volte si tratta di semplici errori. Ma a volte si tratta di contenuti odiosi che devono essere riconosciuti dagli esperti. Una volta una domanda contenente un fischietto per cani che negava l’Olocausto è sfuggita alla revisione per ore e ha finito per accumulare centinaia di voti in più prima di essere scoperta da un esperto del nostro team. Centinaia di persone – probabilmente con modalità di voto e opinioni molto diverse su molti argomenti – non solo non hanno notato la natura problematica del contenuto, ma hanno scelto di promuoverlo con i voti in più. Questo accade anche con le risposte alle domande. Le persone che non sono esperte di storia voteranno le risposte obsolete e veritiere che in realtà non sono corrette. Al contrario, declassa le risposte valide se riflettono punti di vista difficili da accettare.
r/AskHistorians funziona perché la maggior parte dei suoi moderatori sono storici esperti. Se Meta vuole che il suo programma in stile Community Notes funzioni, dovrebbe assicurarsi che le persone con le conoscenze necessarie per fare delle valutazioni vedano i post e che le competenze siano tenute in considerazione nelle votazioni, specialmente quando c’è un disallineamento tra la comprensione comune e le conoscenze degli esperti.
2. Non funziona senza volontari ben supportati
I moderatori a pagamento di Meta esaminano il peggio del peggio, tra cui abusi, sfruttamento sessuale e violenza. Di conseguenza, molti hanno subito gravi traumi, che hanno portato a cause legali e a iniziative sindacali. Quando Meta taglierà le risorse dalla sua attività di moderazione centralizzata, spetterà sempre più a volontari non retribuiti mantenere la piattaforma sicura.
I moderatori delle comunità non hanno un lavoro facile. Oltre a essere esposti a contenuti orribili, in quanto membri identificabili delle loro comunità, sono spesso soggetti a molestie e abusi, come accade quotidianamente su r/AskHistorians. Tuttavia, i moderatori della comunità moderano solo ciò che possono gestire. Per esempio, mentre io gestisco abitualmente discorsi d’odio e linguaggio violento, come moderatore di una comunità testuale sono raramente esposto a immagini violente. I moderatori della comunità lavorano anche in team. Se vengo esposto a qualcosa che mi turba o se qualcuno si comporta in modo offensivo, i miei colleghi subentrano e forniscono supporto emotivo. Inoltre, tengo molto alla comunità che modero. L’attenzione per la comunità, il sostegno dei colleghi e l’autoselezione contribuiscono a mantenere alto il morale dei moderatori volontari.
Non è chiaro come sarà strutturato il nuovo sistema di moderazione di Meta. Se i volontari scelgono quali contenuti segnalare, si riprodurrà il problema di X, dove la partigianeria influenza i post segnalati. Come? Non è chiaro nemmeno che tipo di supporto fornirà la piattaforma. Se i volontari sono esposti a contenuti che trovano sconvolgenti, Meta – l’azienda che attualmente è stata citata in giudizio per aver danneggiato la salute mentale dei suoi moderatori di contenuti a pagamento – fornirà un aiuto sociale e psicologico? Per avere successo, l’azienda dovrà garantire che i volontari abbiano accesso a tali risorse e siano in grado di scegliere il tipo di contenuti che moderano (assicurandosi anche che questa auto-selezione non influenzi indebitamente le note).
3. Non può funzionare senza protezioni e guardrail
Le comunità online possono prosperare quando sono gestite da persone che ci tengono profondamente. Tuttavia, i volontari non possono fare tutto da soli. La moderazione non consiste solo nel prendere decisioni su ciò che è “vero” o “falso”. Si tratta anche di identificare e rispondere ad altri tipi di contenuti dannosi. La decisione di Zuckerberg è accompagnata da altre modifiche agli standard della comunità che indeboliscono le norme relative ai contenuti di odio in particolare. La moderazione della comunità fa parte di un ecosistema più ampio, e diventa molto più difficile farlo quando questo l’ecosistema viene avvelenato da contenuti tossici.
Ho iniziato a moderare r/AskHistorians nel 2020 come parte di un progetto di ricerca per saperne di più sulle esperienze dietro le quinte dei moderatori volontari. Mentre Reddit aveva iniziato ad affrontare alcune delle forme di odio più estreme presenti sulla sua piattaforma bannando occasionalmente intere comunità, molte comunità che promuovevano la misoginia, il razzismo e tutte le altre forme di bigottismo potevano prosperare e crescere. Di conseguenza, i miei primi appunti sul campo sono pieni di esempi di discorsi di odio estremo, oltre che di molestie e abusi rivolti ai moderatori. Era difficile stargli dietro.
Ma a metà del 2020 è successo qualcosa. Dopo una dichiarazione di poco conto sul razzismo da parte dell’amministratore delegato Steve Huffman, i moderatori del sito hanno chiuso le loro comunità in segno di protesta . E la piattaforma ha ascoltato il merito. Reddit ha aggiornato gli standard della comunità per proibire esplicitamente i discorsi d’odio e ha iniziato a farli rispettare più attivamente. Sebbene l’odio sia ancora un problema su Reddit, oggi ne vedo molto meno rispetto al 2020 e al 2021. La moderazione della comunità ha bisogno di un solido supporto perché i volontari non possono fare tutto da soli. È solo uno degli strumenti a disposizione.
Se Meta vuole garantire che i suoi utenti siano al sicuro da truffe, sfruttamento e manipolazione, oltre che dall’odio, non può affidarsi esclusivamente al fact-checking della comunità. Ma la sicurezza della base di utenti non è l’obiettivo di questa decisione. È una mossa politica per accattivarsi il favore della nuova amministrazione. Meta potrebbe creare il programma perfetto di verifica dei fatti da parte della comunità, ma poiché questa decisione è accompagnata da un indebolimento delle sue pratiche di moderazione più ampie, le cose peggioreranno per i suoi utenti anziché migliorare.
Sarah Gilbert è direttore di ricerca del Citizens and Technology Lab della Cornell University.