Non c’è chiarezza sulla lotta alla disinformazione dei social media

Come funzionano i team di moderazione delle aziende e che linee seguono per prendere decisioni? In realtà, ancora si sa poco delle modalità d’azione delle piattaforme online.

di Joan Donovan

Già nel 2016, si poteva fare affidamento su alcuni interventi che le aziende tecnologiche utilizzavano per liberare le loro piattaforme da disinformazione, messaggi di incitamento all’odio e molestie. Nel corso degli anni, meccanismi rudimentali come il blocco dei contenuti e il divieto di account si sono trasformati in una serie più complessa di strumenti, tra cui la quarantena su alcuni argomenti, la rimozione di post dalla ricerca, la non raccomandazioni dei post. 

Eppure, malgrado le diverse opzioni a disposizione, la disinformazione rimane un problema serio. Il giorno delle elezioni c’è stata molta copertura sulla disinformazione: la mia collega Emily Drefyuss ha scoperto, per esempio, che quando Twitter ha provato a trattare i contenuti utilizzando l’hashtag #BidenCrimeFamily, con tattiche come la “deindicizzazione” bloccando i risultati di ricerca, gli utenti incluso Donald Trump avevano adattato varianti dello stesso tag. Ma non sappiamo ancora molto su come Twitter si muova o su come modifichi la sua azione di fronte alle reazioni degli utenti.

Mentre le aziende di social media sospendevano account e etichettavano ed eliminavano post, molti ricercatori, organizzazioni della società civile e giornalisti hanno cercato di capire le loro mosse. La mancanza di trasparenza su tali decisioni e processi significa che, per molti, i risultati delle elezioni quest’anno finiscono con un asterisco, proprio come è successo nel 2016.

Quali azioni hanno intrapreso queste aziende? Come funzionano i loro team di moderazione? Qual è il processo per prendere decisioni? Negli ultimi anni, le piattaforme online hanno messo insieme grandi task force dedicate a rimuovere la disinformazione elettorale e ad etichettare le possibili dichiarazioni anticipate di vittoria. Sarah Roberts, professoressa alla UCLA, ha scritto del lavoro invisibile dei moderatori dei contenuti della piattaforma come di un’industria ombra, un labirinto di appaltatori e regole complesse di cui il pubblico sa poco. Perché non se ne sa di più? 

Nella nebbia post-elettorale, i social media sono diventati il terreno per una guerra “sporca” alle nostra conoscenze, con campagne di disinformazione e teorie del complotto che proliferano. Chi trasmette le notizie segue obblighi di interesse pubblico, come la condivisione di informazioni tempestive, locali e pertinenti. Le aziende di social media hanno ereditato una posizione simile nella società, ma non si sono assunte le stesse responsabilità. Questa situazione ha lasciato spazio ad accuse di pregiudizi e censura nel modo in cui hanno moderato i contenuti relativi alle elezioni. 

Sostenere i costi

A ottobre, sono entrato a far parte di un gruppo di esperti su disinformazione, cospirazione e infodemie per il Permanent Select Committee on Intelligence della Camera. Sono stato affiancato da Cindy Otis, un’ex analista della CIA, Nina Jankowicz, una collega esperta di disinformazione del Wilson Center e Melanie Smith, responsabile della analisi dei dati presso Graphika. 

Nello stesso periodo, Facebook stava lottando per fronteggiare QAnon, una setta digitale militarizzata monitorata dal loro dipartimento per le organizzazioni pericolose e condannata dalla Camera con un disegno di legge bipartisanIl mio team sta indagando su QAnon da anni. Questa teoria della cospirazione è diventata l’argomento preferito tra chi si occupa di disinformazione per il modo in cui ha risposto ai tentativi delle aziende di piattaforme on line di metterla in quarantena e rimuoverla. 

QAnon è diventato un problema anche per il Congresso, perché non si tratta più di persone che partecipano a un insolito gioco online, ma di un tornado che si è abbattuto nella vita dei politici, che ora sono l’obiettivo di campagne di molestie che sfociano nella violenza. Il tutto è successo rapidamente e in modi nuovi. 

Le teorie del complotto di solito impiegano anni per diffondersi nella società, con la promozione di figure politiche, mediatiche e religiose chiave. I social media hanno accelerato questo processo attraverso la distribuzione accelerata di contenuti. I follower di QAnon non si limitano a commentare le ultime notizie, ma le indirizzano al loro volere

Ho concentrato il mio intervento davanti alla Commissione sui molti danni senza nome causati dall’incapacità delle aziende di social media di impedire che la disinformazione saturasse i loro servizi. Giornalisti, professionisti sanitari e medici, leader della società civile e amministratori cittadini, come le forze dell’ordine e gli ufficiali elettorali, stanno sostenendo il costo della disinformazione su larga scala e l’onere di affrontarne gli effetti. 

Molte persone si muovono in punta di piedi su questioni politiche quando chiacchierano con amici e familiari, ma quando la disinformazione sulle proteste ha iniziato a mobilitare vigilantes bianchi e la disinformazione medica ha portato le persone a minimizzare la pandemia, diversi settori professionali hanno assunto nuovi ruoli importanti come difensori della verità

Si prenda per esempio la salute pubblica e i medici, che hanno dovuto sviluppare risorse per mitigare la disinformazione sanitaria sul covid-19. I medici stanno tentando di diventare influencer online al fine di correggere consigli fasulli e false affermazioni di cure miracolose, togliendo tempo alla messa a punto delle terapie. 

Molte redazioni, nel frattempo, sono impegnate a tenere il passo con la disinformazione”, smantellando costantemente teorie del complotto o affermazioni di notizie false. Ma queste risorse sarebbero spese molto meglio per “fare” giornalismo invece che agire essenzialmente come moderatori di contenuti di terze parti. 

Anche le organizzazioni della società civile sono state costrette a investire risorse per monitorare la disinformazione e proteggere la propria base da campagne mirate. La disinformazione su base razziale è una tattica conosciuta per aumentare la polarizzazione su questioni divisive. Brandi Collin-Dexter ha testimoniato su questi problemi in un’audizione al Congresso a giugno, evidenziando come le aziende tecnologiche si nascondono dietro la difesa della libertà di espressione sopra ogni altra cosa senza fare abbastanza per proteggere le comunità nere prese di mira quotidianamente sui social media con disinformazione medica, incitamento all’odio e molestie. 

Per molte categorie di lavoratori è diventato difficile svolgere la loro attività mentre le voci e le teorie del complotto si diffondono online. In questo momento, per esempio, le forze dell’ordine si stanno preparando a fronteggiare possibili esplosioni di violenzadavanti ai seggi elettorali.

Un percorso per migliorare

Quando la disinformazione si diffonde dal mondo digitale a quello fisico, può reindirizzare le risorse pubbliche e minacciare la sicurezza delle persone. Questo è il motivo per cui le aziende di social media devono prendere la questione con la stessa serietà con cui prendono il loro desiderio di profitto.  Ma hanno bisogno di una strada da seguire. La sezione 230 del Communications and Decency Act consente loro di migliorare la moderazione dei contenuti, ma i politici hanno minacciato di rimuovere queste protezioni in modo da continuare con le proprie campagne di propaganda. 

Per tutta l’udienza di ottobre, si è profilato lo spettro di una nuova agenzia che potesse controllare in modo indipendente le violazioni dei diritti civili, esaminare questioni di riservatezza dei dati e valutare le esternalità di mercato di questo settore su altri.  Come ho sostenuto durante l’audizione, l’enorme portata dei social media in tutto il mondo significa che è importante che la regolamentazione non inizi con lo smantellamento della Sezione 230 fino a quando non sarà in campo una nuova politica. 

Fino ad allora, abbiamo bisogno di maggiore trasparenza. La disinformazione non riguarda solo i fatti, ma chi dovrebbe dire quali sono i fatti. Le decisioni corrette sulla moderazione dei contenuti sono fondamentali per la responsabilità pubblica.  Invece di aggrapparsi alla nostalgia per tecnologie più semplici, a volte vale la pena di provare a tracciare una rotta per il web che vogliamo, un web che promuove democrazia, conoscenza ed equità. Altrimenti, ogni decisione inspiegabile da parte delle aziende tecnologiche sull’accesso alle informazioni diventa potenzialmente foraggio per i cospirazionisti e, peggio ancora, la base per una politica governativa manipolatoria.

Foto: Pexels

Related Posts
Total
0
Share