Come è stata assassinata la verità

Pandemia, proteste e sistemi elettorali carenti hanno dato la possibilità alla disinformazione di trovare terreno fertile e prosperare.

di Abby Ohleiser

Centinaia di migliaia di americani sono morti durante la pandemia e uno dei contagiati è stato il presidente degli Stati Uniti. Ma nemmeno contrarre personalmente il covid-19 gli ha impedito di minimizzare la malattia nei messaggi di Twitter ai suoi sostenitori. Nel frattempo, le persone si presentano ai negozi senza mascherina. Milizie armate di destra pattugliano le città, sproloquiando di invasioni “antifa”. E poi c’è QAnon, la teoria del complotto online che afferma che Trump sta conducendo una guerra segreta contro una cerchia di pedofili satanisti.

“Q”, l’account anonimo trattato come un profeta dai credenti di QAnon, ha recentemente incaricato i seguaci di “camuffarsi” online e di “eliminare tutti i riferimenti su: ‘Q’ ‘Qanon’, per evitare di incappare nei divieti. Quando il Pew Research Center ha intervistato gli americani su QAnon all’inizio del 2020, solo il 23 per cento degli adulti ne sapeva qualcosa. Ora, nel nuovo sondaggio di Pew effettuato a settembre, quel numero è raddoppiato e le risposte erano schierate ideologicamente: “Il 41 per cento dei repubblicani che hanno sentito qualcosa al riguardo afferma che QAnon è abbastanza o molto positivo per il Paese mentre il 77 per cento dei Democratici lo ritiene molto negativo”, scrive il Pew.

Le principali piattaforme come Facebook e Twitter hanno iniziato a intraprendere misure decise contro gli account QAnon e le reti di disinformazione. Facebook ha bandito da pochissimo tutti i gruppi Qanon, cercando di colpire direttamente una delle reti di distribuzione più potenti della teoria del complotto.  Ma quelle reti sono state in grado di prosperare, relativamente indisturbate, sui social media per anni. Il giro di vite nei confronti di QAnon sembra arrivare troppo tardi. 

Molti americani, in particolare i bianchi, hanno sperimentato l’ascesa dell’odio e della disinformazione online come se fossero su un alto ponte sopra quel fiume in piena, limitandosi a fissare l’orizzonte. Quando l’acqua sale, però, spazza via tutto ciò che non è abbastanza alto. Molte persone hanno creduto che questa marea crescente di disinformazione e odio non li riguardasse, fino a quando non ha lambito le loro caviglie. 

Najeebah Al Hhadban

Gli allarmi non sono stati ascoltati

“Tutti dicono, ‘Non me l’aspettavo”, dice Shireen Mitchell. All’inizio degli anni 2010, Mitchell, un imprenditore e analista aziendale, era una dei tanti ricercatori neri che documentavano campagne Twitter coordinate di molestie e disinformazione contro le femministe nere. “L’abbiamo visto arrivare. Lo stavamo monitorando”, ella dice. Ho chiamato Mitchell all’inizio di settembre, circa una settimana dopo che Twitter ha rimosso alcuni account che si spacciavano per gruppi di democratici neri sostenitori di Trump. 

Questo tipo di mistificazione su Twitter è una tattica con una lunga storia. Shafiqah Hudson e I’Nasah Crockett, due attiviste femministe nere, hanno notato nel 2014 che gli account Twitter che promuovevano hashtag femministi presumibilmente neri come #EndFathersDay e #whitewomencantberaped avevano qualcosa di strano. 

Tutto in quei racconti – la scelta delle parole, le biografie, i nomi utente – sembrava l’idea di una femminista nera tipica di un troll razzista di destra. Ed è esattamente quello che erano. Come notato in un lungo servizio su “Slate” sul loro lavoro, Crockett e Hudson hanno scoperto centinaia di account falsi all’epoca e hanno documentato come funzionava la manipolazione.  

Come Mitchell, Hudson e Crockett, alcuni dei migliori esperti di come funzionano le molestie online sono state persone che ne sono state prese di mira. Ma le parole di questi esperti sono rimaste in secondo piano sia sulle piattaforme di social media sia tra le voci influenti, spesso bianche nel mondo accademico e nel giornalismo, che hanno commentato la cultura dei meme online per un pubblico più vasto. 

“Le persone trans nel loro complesso hanno avuto seri problemi nell’affrontare queste situazioni”, dice Katherine Cross, una dottoranda dell’Università di Washington, specializzata nello studio degli abusi online. “La nostra esperienza viene ignorata per ragioni simili. Non siamo viste come attori affidabili. Siamo considerate come troppo coinvolte, come un gruppo di interesse non sufficientemente credibile”, spiega Cross, anch’essa trans. 

Molti dei giornalisti, come me, che hanno a disposizione grandi piattaforme per commentare la cultura di Internet sono bianchi. Dalle elezioni di Trump del 2016, molti di noi sono diventati voci di riferimento per coloro che cercano di scoprire come operano i suoi sostenitori online, in cosa credono e come diventano virali. Ma molti di noi inconsapevolmente hanno contribuito a costruire i meccanismi che sono stati utilizzati per diffondere l’abuso. 

La cultura dei meme “ironici” è fiorita negli ultimi 10 anni, con il razzismo e il sessismo spesso interpretati dai giornalisti bianchi come semplice umorismo virale. Ma il percorso che le barzellette hanno preso nel mainstream, nato su bacheche come 4Chan prima di essere riciclato per la sfera pubblica dai giornalisti, è lo stesso ora utilizzato per diffondere QAnon, disinformazione sanitaria e forme di abuso mirate. Il modo in cui i giornalisti hanno trattato i meme ha fatto capire ai suprematisti bianchi quanto potevano farla franca.

Whitney Phillips, ricercatrice alla Syracuse University che studia la disinformazione online, ha pubblicato un rapporto nel 2018 che documenta come i giornalisti che si occupano di disinformazione svolgono simultaneamente un servizio vitale e rischiano di esacerbare fenomeni dannosi. È qualcosa con cui Phillips, che è bianca, ha fatto i conti personalmente. 

Mitchell e io abbiamo parlato per quasi due ore a settembre, e lei mi ha raccontato come si sentiva, a volte, vedendo mini-generazioni di nuove voci bianche entrare e uscire dalla sua area di competenza. Intervista dopo intervista, le viene spesso chiesto di riformulare le proprie esperienze per un “pubblico laico”, cioè per i bianchi. Nel frattempo, i resoconti di esperti delle comunità più colpite dagli abusi online sono trattati nella migliore delle ipotesi come di secondaria importanza e spesso omessi del tutto. 

Un esempio tra tutti: il Gamergate. La campagna di abusi online del 2014 rivolta a donne e giornalisti nel settore dei giochi. È iniziato con lo “sfogo” online di un uomo su un’ex ragazza (bianca) ed è diventato un importante evento di cronaca e di confronto culturale grazie al quale il pubblico ha preso sul serio il problema delle molestie online, anche se allo stesso tempo ha dimostrato come le campagne di abuso continuano imperterrite. 

Anche allora, dice Cross, le persone che erano meglio in grado di parlare del motivo per cui queste campagne avevano preso piede e di cosa avrebbe potuto fermarle, cioè le persone sotto attacco, non venivano prese sul serio come esperti.  L’attenzione dei media agli abusi online è aumentata dopo il Gamergate, mi ha detto Mitchell, per un semplice motivo: “Si è prestata attenzione al fenomeno quando una donna bianca è stata presa di mira, ma prima nessuno credeva alle donna nere”.

E quando alcune aziende hanno iniziato a cercare di fare qualcosa contro gli abusi, coloro che sono coinvolti in tali sforzi spesso si sono ritrovati a diventare l’obiettivo dello  stesso tipo di molestie. Quando Ellen Pao ha assunto la carica di CEO di Reddit nel 2014, ha supervisionato il primo vero tentativo del sito di affrontare la misoginia, il razzismo e gli abusi che il sito di intrattenimento ospitava. 

Nel 2015, Reddit ha introdotto una politica anti-molestie e poi ha bandito cinque famigerati subreddit per averla violata. Chi frequentava la piattaforma si è arrabbiato per quei divieti e ha attaccato il CEO, lanciando petizioni in cui si chiedevano le sue dimissioni. Pao ha finito per dimettersi più tardi nello stesso anno e ora è una sostenitrice della diversità nel settore della tecnologia.

Pao e io abbiamo parlato nel giugno 2020, subito dopo che Reddit aveva bandito r/The_Donald, un subreddit pro-Trump un tempo popolare. Per anni era servito come spazio organizzativo per amplificare i messaggi estremisti alimentati dalla cospirazione, e per anni Pao aveva esortato la leadership di Reddit a vietarlo. Quando finalmente lo hanno fatto, molti dei suoi abbonati erano già usciti dal sito e si erano spostati su altre piattaforme, come Gab, sulle quali avevano meno probabilità di controllarli. “È sempre stato più facile non fare nulla”, mi ha detto Pao. “Non ci vogliono risorse. Non ci vogliono soldi”.

Najeebah Al Hhadban

Un fenomeno costante

Tuttavia, gli avvertimenti di Pao, Cross e altri hanno lasciato la situazione inalterata. Il venerdì prima che Donald Trump fosse eletto nel 2016, un’altra teoria del complotto, una che avrebbe aiutato a creare QAnon nel giro di un anno, era di moda su Twitter. #SpiritCooking è stato facile da sfatare. Le sue affermazioni centrali erano che il presidente della campagna di Hillary Clinton, John Podesta, era un occultista e che una cena organizzata da un artista di spicco era in realtà un rituale satanico segreto. La fonte della teoria era un invito a cena negli archivi di posta elettronica rubati di Podesta, che erano stati rilasciati pubblicamente da WikiLeaks quell’ottobre. 

Ho scritto sulla disinformazione durante le elezioni del 2016 e ho visto #SpiritCooking evolversi in Pizzagate, una teoria del complotto sui gruppi segreti di pedofili organizzati nelle pizzerie a Washington. Reddit ha bandito il forum Pizzagate alla fine di novembre di quell’anno per “doxxing”, vale a dire aver messo informazioni personali online. Il 4 dicembre 2016, esattamente un mese dopo l’esplosione di #SpiritCooking, un uomo della Carolina del Nord è entrato in un ristorante di Washington e con il suo fucile ha preso di mira quelli che credeva gli aderenti a un centro di sfruttamento della prostituzione minorile.

I primi mesi dopo le elezioni del 2016 hanno segnato un altro momento, proprio come oggi, in cui l’ondata di disinformazione si è fatta sentire. Sconvolti dall’elezione di Trump, molti temevano che l’interferenza straniera e le fake news diffuse sui social media avessero influenzato gli elettori. Il CEO di Facebook, Mark Zuckerberg, inizialmente ha liquidato questa come “un’idea piuttosto folle”, ma il conseguente esame delle piattaforme di social media da parte dei media, dei governi e del pubblico ha rivelato che le persone, specialmente quelle più vulnerabili, si sono lasciate condizionare.

La tendenza non si è più fermata. Il sistema di consigli di YouTube, progettato per convincere le persone a guardare il maggior numero di video possibile, ha portato gli spettatori verso tunnel di disinformazione e odio generati algoritmicamente. Su Twitter, Trump ha ripetutamente utilizzato la sua enorme piattaforma per amplificare i messaggi dei sostenitori che promuovevano ideologie razziste e cospirative. 

Nel 2017, Facebook ha introdotto il live streaming video e si è verificata l’invasione di video live graficamente molto aggressivi. Nel 2019, anche prima del covid-19, la disinformazione sui vaccini prosperava sulla piattaforma mentre le epidemie di morbillo si diffondevano negli Stati Uniti. Le aziende tecnologiche hanno risposto in diversi modi: assumere un numero enorme di moderatori; sviluppare sistemi automatizzati per rilevare e rimuovere alcuni tipi di contenuti estremi o la disinformazione; aggiornare le loro regole, gli algoritmi e le politiche per vietare o diminuire la portata di alcune forme di contenuto dannoso.

Ma finora la marea tossica ha superato la loro capacità – o la loro volontà – di respingerla. I loro modelli di business dipendono dalla massimizzazione della quantità di tempo che gli utenti trascorrono sulle loro piattaforme. Inoltre, come hanno dimostrato numerosi studi, la disinformazione proviene in modo sproporzionato da fonti di destra, il che apre le piattaforme tecnologiche ad accuse di pregiudizio politico se cercano di reprimere questi contenuti. 

In alcuni casi, secondo quanto riportato da NBC News ad agosto, Facebook ha deliberatamente evitato di intraprendere azioni disciplinari contro le popolari pagine di destra che pubblicano informazioni errate che violano le regole. 

Molti esperti credevano che il prossimo test su larga scala della capacità di queste aziende di gestire un assalto di disinformazione coordinata, odio ed estremismo sarebbero state le elezioni del novembre 2020. Ma la pandemia covid è arrivata prima: un terreno fertile per notizie di cure false, teorie del complotto sull’origine del virus e propaganda contraria alle linee guida di salute pubblica.  Inevitabile pensare che le piattaforme non saranno in grado di impedire la diffusione di notizie false su frodi elettorali, violenza nelle strade e conteggio dei voti al giorno delle elezioni. 

Un ritardo colpevole nell’intervento

Non sto proponendo una politica magica che risolverà questo problema, o di giudicare cosa dovrebbero fare le piattaforme per assolvere se stesse da questa responsabilità. Invece, vorrei sottolineare, come altri hanno fatto prima, che si poteva intervenire molto prima, ma non è stato fatto. Facebook e Twitter non hanno creato estremisti razzisti, teorie del complotto o molestie di massa, ma hanno scelto di gestire le loro piattaforme in un modo che consentisse agli estremisti di trovare un pubblico e hanno ignorato le voci che dicevano loro dei danni che i loro modelli di business stavano incoraggiando.

A volte questi allarmi provenivano dall’interno delle loro aziende e dei circoli sociali. Quando Ariel Waldman, un divulgatore scientifico, ha reso pubblica la sua storia di abusi su Twitter, sperava che sarebbe stata l’ultima persona a essere oggetto di molestie sul sito. Era il maggio 2008. Allora, aveva già provato inutilmente per un anno a far rimuovere i suoi aggressori dalla piattaforma, ma era fiduciosa che il suo post sul blog in cui descriveva le sue esperienze avrebbe cambiato la situazione.  

Dopotutto, conosceva alcune delle persone che avevano fondato Twitter solo un paio di anni prima.  “Frequentavo il loro ufficio e sono andata alle loro feste di Halloween “, mi ha spiegato Waldman quest’estate. All’epoca, c’erano anche modelli per intervenire con successo: Flickr, il sito di condivisione di foto, era stato estremamente reattivo alle richieste di rimuovere contenuti offensivi che la prendevano di mira. 

Così ha scritto delle minacce e degli abusi lanciati contro di lei e ha scambiato dettagliate e-mail con i fondatori dell’azienda. Ma Twitter non ha mai affrontato adeguatamente il problema. Dodici anni dopo, Waldman ha visto lo stesso schema ripetersi anno dopo anno. “Accettare sulla piattaforma contenuti il cui obiettivo principale è vomitare costantemente incitamenti all’odio e danneggiare altre persone, è una decisione precisa. Nessuno li ha costretti a prenderla”, ella dice. 

Oggi, nota Mitchell, gli stessi gruppi che si sono impegnati in campagne di falsità si sono riproposti come vittime ogni volta che vengono avanzate richieste di zittirli alle principali piattaforme di social media. “Se hanno avuto il diritto di fare quello che volevano, allora diventi un oppressore se li limiti”, chiarisce Waldman. “Così nessuno presta più attenzione alle persone che sono realmente oppresse”. 

Un modo per migliorare le cose potrebbe comportare la fornitura di maggiori incentivi alle aziende per intervenire. Ciò potrebbe includere la riforma della Sezione 230, la legge che protegge le aziende di social media dalla responsabilità legale per i contenuti pubblicati dagli utenti. Mary Anne Franks, una professoressa dell’Università di Miami che ha lavorato sulle molestie online, ritiene che una riforma significativa della legge dovrebbe agire su due piani: limitare la portata di tali protezioni al diritto di parola e rimuovere l’immunità dalle aziende che consapevolmente traggono vantaggio dalla diffusione virale dell’odio o della disinformazione. 

Pao osserva che le aziende potrebbero prendere questi problemi più seriamente se la loro leadership condividesse la condizione delle persone molestate. “Si devono convincere persone con background diversi ad alti livelli a prendere decisioni difficili”, dice, aggiungendo che questo è ciò che hanno fatto a Reddit: “Abbiamo un gruppo di persone di diverse etnie, soprattutto donne, che capiscono i problemi e perché introdurre cambiamenti. Ma in questo momento le aziende hanno consigli di amministrazione pieni di uomini bianchi che non capiscono i problemi di cui si sta parlando”.

Phillips, di Syracuse, è più scettica. You Are Here, un libro scritto in collaborazione con Ryan Milner all’inizio di quest’anno, inquadra l’abuso e la disinformazione online come un disastro ecologico globale che, come il cambiamento climatico, è profondamente radicato nel comportamento umano, ha un lungo contesto storico e ora è totalizzante, avvelenando l’aria. A suo parere, chiedere alle aziende tecnologiche di risolvere un problema che hanno contribuito a creare non può funzionare. 

“Il nocciolo della questione è che la tecnologia, le nostre reti, il modo in cui le informazioni si diffondono, è ciò che ha contribuito a creare l’inferno. Come potrebbero tirarcene fuori?”, afferma Phillips. “Si tratta di un problema legato alle persone ed è facilitato ed esacerbato in modo esponenziale dalla tecnologia. Ma alla fine stiamo parlando di caratteristiche umane”.

Foto: Najeebah Al-Ghadban

Related Posts
Total
0
Share