• Michael Reynolds-Pool / Getty Images

Zuckerberg rimane vago sul problema della disinformazione

In un'audizione al Congresso, al CEO è stato chiesto ripetutamente se gli algoritmi di raccomandazione di Facebook alimentassero la polarizzazione politica, ma le risposte ottenute sono insoddisfacenti.

di Abby Ohlheiser 26-03-21
Durante l'incontro, la rappresentante Debbie Dingell, una democratica del Michigan, harivolto una domanda all'amministratore delegato di Facebook Mark Zuckerberg relativa alla seguente affermazione da lui fatta a proposito della sua stessa azienda:”il contenuto pubblicato su Facebook che viola gli standard della comunità aziendale ha maggiori probabilità di coinvolgere gli utenti”. 

“E’ ancora vera questa frase?”, ha chiesto Dingel, che ha citato un recente articolo di Karen Hao del “MIT Technology Review” basato su interviste con membri precedenti e attuali del team di intelligenza artificiale dell'azienda. La storia riguarda il modo in cui i modelli di intelligenza artificiale che guidano gli algoritmi di raccomandazione di Facebook consentono alla disinformazione e agli abusi di continuare a prosperare sul sito. 

Come ha scritto Hao, ha continuato Dingell, "un ex ricercatore di intelligenza artificiale di Facebook che si è unito all’azienda nel 2018 afferma che lui e il suo team hanno condotto una serie di studi nei quali è uscita rafforzata la stessa idea di base: i modelli che massimizzano il coinvolgimento aumentano la polarizzazione". 

Come ha scritto Hao, uno studio della New York University sulle pagine Facebook degli editori partigiani ha rilevato che "quelli che pubblicavano regolarmente informazioni politiche errate hanno avuto maggior successo di pubblico durante le elezioni presidenziali statunitensi del 2020 e delle rivolte del Campidoglio". 

Zuckerberg, dopo aver detto durante l’audizione al Congresso “molte cose imprecise" sulle misure intraprese da Facebook per controllare la disinformazione e i contenuti polarizzanti, ha aggiunto: "Le persone non vogliono vedere disinformazione o contenuti acchiappaclic. Anche se può essere vero che potrebbero essere più propense a fare clic su di esso a breve termine, non è positivo permetterlo per la nostra attività, il nostro prodotto o la nostra comunità". 

La sua risposta è spesso presente nelle discussioni su Facebook e ignora il fatto che l’azienda non ha intrapreso uno sforzo centralizzato e coordinato per esaminare e ridurre il modo in cui i suoi sistemi di raccomandazione amplificano la disinformazione.
 
Durante l’audizione sulla disinformazione che si è tenuta alla House Committee on Energy and Commerce, i membri del Congresso hanno chiesto a Zuckerberg, a Sundar Pichai, CEO di Google e a Jack Dorsey, CEO di Twitter, chiarimenti sulla diffusione della disinformazione sulle elezioni statunitensi di novembre, l'attacco del 6 gennaio al Campidoglio e i vaccini per il covid, tra le altre cose. 

Come è diventato comune in queste audizioni, i legislatori conservatori hanno anche interrogato i CEO sulla percezione di pregiudizi anti-conservatori sulle loro piattaforme, un'affermazione di lunga data portata avanti dalla destra che i dati non supportano. Entrambi i partiti politici statunitensi hanno chiesto la riforma della Sezione 230 del Communications Decency Act in modo che le aziende della Silicon Valley possano essere ritenute responsabili del contenuto delle loro piattaforme e delle loro decisioni in merito alla moderazione. 

Come parte delle sue osservazioni presentate prima dell'udienza, Zuckerberg ha proposto una modifica alla regola che, nel suo stato attuale, garantisce alle piattaforme l'immunità dalla responsabilità per i contenuti pubblicati dagli utenti. Il Congresso, ha affermato Zuckerberg, dovrebbe "considerare la possibilità di subordinare la protezione della responsabilità degli intermediari delle piattaforme per alcuni tipi di contenuti illegali alla capacità delle aziende di soddisfare le migliori pratiche per combattere la diffusione di questi contenuti". 

In altre parole, le aziende sarebbero ritenute responsabili per i contenuti pubblicati sulle loro piattaforme se non aderissero alle migliori pratiche per la moderazione dei contenuti (che il governo, in teoria, definirebbe). Ma se le aziende adottano queste pratiche e i contenuti dannosi continuano a essere visualizzati sui loro siti, Zuckerberg ritiene che le piattaforme dovrebbero essere considerate scevre da responsabilità. 

(rp)