• Andrea Daquino

Come salvare l’integrità dei social media

E’ necessario rendere i nostri spazi online più simili a quelli che caratterizzano il mondo reale per limitare la portata dei fenomeni di cattiva funzionamento delle reti sociali e proteggere gli utenti.

di Sahar Massachi 22-12-21
Essere sui social media può sembrare un po' come vivere in una nuova città, la più grande del mondo. Milioni di persone possono fare cose che i loro genitori non hanno mai sognato: vivere in comunità allargate, giocare contemporaneamente con migliaia di persone, imparare collettivamente. Apparentemente una meraviglia, ma non è così semplice. Ogni tanto, una frenesia di massa prende il sopravvento. Le persone entrano in conflitto tra loro e le relazioni  sono irrevocabilmente interrotte.
 
Il mio lavoro come membro del team di integrità civica di Facebook era proteggere la città. I miei colleghi e io abbiamo ricercato e risolto problemi di integrità: abusi della piattaforma per diffondere bufale, incitamento all'odio e alla violenza, molestie e così via. Nel tempo, come in ogni comunità di esperti, tutti avevamo modi leggermente diversi di guardare al problema. Da parte mia, ho iniziato a pensare come un urbanista. La città ha bisogno di essere progettata correttamente fin dall'inizio. Ha bisogno di quartieri costruiti in modo che le persone, le società e le democrazie possano prosperare.

Si tratta di un approccio diverso, che sta emergendo nelle aziende di tutto il panorama dei social media: il design dell'integrità. Il nostro compito è fermare sistematicamente i danni online che gli utenti si infliggono a vicenda. Spesso non entriamo nel caso specifico, ma seguiamo la strada degli incentivi, lavoriamo sugli ecosistemi informativi. Le aziende di social media devono dare la priorità al design dell'integrità rispetto alla moderazione dei contenuti e il pubblico deve pretendere che lo facciano.

Innanzitutto, facciamo un passo indietro: se i social media sono una nuova città, perché è così difficile governarla? Perchè le città reali non vedono milioni di cittadini affiliarsi a sette con ritmi frenetici? Come si può evitare che le persone si trasformino in automi che vomitano propaganda? Cosa ha la città fisica che quella virtuale non ha?

Limiti fisici, direi. 

Come società, abbiamo sviluppato una combinazione di regole, norme e modelli di progettazione che funzionano, più o meno, per tenere a freno alcuni tipi di comportamento inaccettabili. Queste regole presuppongono i limiti della realtà che conosciamo. Online, tuttavia, le persone hanno davvero superpoteri come la clonazione (eserciti di robot), il teletrasporto (capacità di arrivare in molti posti contemporaneamente), il travestimento (le diverse identità). In una città fisica, ogni persona attiva è limitata dalla resistenza vocale o dalla capacità del portafoglio. Nella città online, la stessa persona può postare in 400 gruppi (di decine di migliaia di partecipanti) ogni ora, gratuitamente. 

In una città fisica, assumere una nuova identità richiede trucco, documenti falsi e molto duro lavoro. Nella città dei social media, è necessario un processo di registrazione di due minuti per creare un nuovo account. La città fisica è popolata da esseri umani. Nella città dei social media, capita di parlare in qualsiasi momento con qualcuno che è segretamente un robot. In una città fisica, viaggiare richiede tempo. Nella città dei social media, diventa banale  assumere l'identità di migliaia di persone in un altro emisfero, come hanno fatto i giovani macedoni.

In un sistema che incentiva un cattivo comportamento, la punizione a posteriori è destinata a fallire. Fortunatamente, esistono altri approcci. Dopotutto, anche la città fisica non risolve i problemi sorvegliando e arrestando tutti. Le campagne di salute pubblica e gli assistenti sociali possono aiutare le persone prima che sia troppo tardi. Costruiamo spazi pubblici come i mercati degli agricoltori e le biblioteche per creare un senso di comunità. 

Se il nostro ruolo è quello degli urbanisti, i moderatori dei contenuti sulle piattaforme sono poliziotti, giudici e giurie riunite insieme. A queste persone, che sono in genere lavoratori a contratto sottopagati e stressati dai contenuti con cui entrano in contatto, è stato affidato il compito impossibile di rivedere milioni di post potenzialmente problematici e, in una manciata di secondi, senza contesto critico, determinare se violano le leggi della città in continua evoluzione in modo che possano essere applicate le sanzioni adeguate. 

Sono costretti a decidere su casi ad alto rischio con prove minime e nessun processo. In qualunque modo governino, la gente è furiosa e la città non sembra mai diventare più sicura. La moderazione dei contenuti non può risolvere i problemi sistemici che affliggono i social media non più di quanto i vigili urbani non possano salvaguardare le strade prive di segnaletica orizzontale, limiti di velocità, segnaletica o semaforo.

Il lavoro dei team di integrità propone una soluzione diversa. Ci si potrebbe accorgere solo ora di noi, ma abbiamo una lunga storia nel settore. Abbiamo imparato molto dagli approcci alla lotta contro lo spam nelle e-mail o nei motori di ricerca e prendiamo in prestito molti concetti dalla sicurezza informatica. 

Una delle migliori strategie per l'integrità che abbiamo trovato è riportare alcuni attriti del mondo reale nelle interazioni online. Mi concentrerò su due esempi per spiegarlo, ma ci sono molti altri meccanismi simili, come i limiti sulla dimensione del gruppo, un sistema di reputazione (come PageRank di Google), un indicatore del "quartiere da cui vieni", modelli di conversazione e un potere di condivisione più limitato. Per ora, parliamo di due idee che hanno sviluppato gli operatori di integrità: le definiremo esami di guida e dossi.

Innanzitutto, è necessario rendere più difficile per le persone avere account falsi. E’ come se, dopo essere stato arrestato per un crimine, qualcuno potesse tornare alla vita normale sotto mentite spoglie, evitando la pena. Non va bene. Allo stesso tempo, è giusto ricordare che gli account pseudonimi non sono sempre cattivi. Forse dietro lo pseudonimo si trova un adolescente gay che non vuole farlo sapere alla famiglia, o un attivista per i diritti umani che vive sotto un regime repressivo. Non abbiamo bisogno di vietare tutti gli account falsi. Ma possiamo aumentare i loro costi.

Una soluzione possibile ricorda l’esame di guida: non si può stare al volante di un'auto senza superarlo. Allo stesso modo, i nuovi account non dovrebbero avere accesso immediato a tutte le funzionalità di un'app. Per sbloccare le funzionalità più sfruttabili (spam, molestie, eccetera), forse un account dovrebbe dover pagare dei costi in termini di tempo e fatica. Solo una volta che l'account si sarà qualificato attraverso questo "esame di guida" gli verrà affidato l'accesso al resto dell'app.

Gli spammer dovrebbero saltare attraverso questi cerchi. In effetti, ci aspettiamo che lo facciano. D'altra parte, non vogliamo rendere le cose troppo difficili per gli utenti legittimi di account falsi. Richiedendo uno sforzo per creare un nuovo "travestimento", tuttavia, stiamo reintroducendo un po' di fisica nell'equazione. Tre account falsi potrebbero essere gestibili. Ma centinaia o migliaia diventerebbero troppo difficili da realizzare.

Online, i danni peggiori li fanno quasi sempre gli utenti esperti. Il fenomeno è abbastanza intuitivo da capire: le app social generalmente incoraggiano i loro membri a pubblicare il più possibile. Gli utenti esperti possono farlo molto più spesso, rivolgendosi simultaneamente a un pubblico diverso e più vasto di quanto sia possibile nella vita reale. Nelle città tradizionali, a differenza del mondo online, una persona malintenzionata è limitata dalla necessità fisica di essere in un posto o di avere di fronte un pubblico volta per volta. 

Online, alcune azioni sono perfettamente ragionevoli se eseguite con moderazione, ma diventano sospette se eseguite su larga scala, come nei casi di creazioni di più gruppi contemporaneamente, di commenti su migliaia di video o di post ininterrotti. Quando vediamo persone che usano troppo una funzione, pensiamo che probabilmente stiano facendo qualcosa di simile alla guida spericolata. Abbiamo una soluzione: rallentarli. Non c'è giudizio di valore qui: non è una punizione, ma un tentativo di aumentare la sicurezza. Tali misure permetterebbero di raggiungere questo obiettivo, senza creare particolari problemi agli utenti.

Queste idee derivano dallo stesso principio: l'attrito. È un altro modo per imporre costi crescenti alle azioni che vanno oltre i limiti del mondo fisico. Con gli esami di guida, l'azione è la creazione dell'account; con i dossi, l'azione è postare o commentare. I costi non devono essere denaro in senso letterale, però. Si potrebbe prevedere un lag temporale prima che l'azione sia completata, penalizzando il posizionamento del contenuto dell'utente in un feed o modificandone l'aspetto per renderlo meno attraente. In sostanza: oltre una certa soglia, l'ennesimo post o commento o retweet dovrebbe costare più di quello precedente.

In effetti, da questo ragionamento emerge una buona definizione di spam: un imbroglio che sfrutta la mancanza delle leggi della fisica nel mondo online. La soluzione sembra essere semplice: ritoccare la fisica per combattere gli spammer. Dopotutto, come industria, sappiamo come combattere lo spam.

Il design dell'integrità può risolvere alcuni problemi spinosi, come la continua guerra per la "censura". Può alleviare la pressione su un sistema di moderazione dei contenuti sovraccaricato. Può creare un meccanismo robusto per difendersi sia dagli "attacchi" intenzionali dei servizi di intelligence sia da chi sistematicamente abusa delle regole. Ma il design di integrità da solo non può impedire alle aziende di prendere decisioni sbagliate. 

La trappola degli stakeholder può rovinare il lavoro di qualsiasi team di integrità. Gran parte della lotta allo spam deriva dall'individuazione di scappatoie nel sistema e quindi dalla loro chiusura. È impossibile eliminare queste scappatoie che abilitano lo spam senza danneggiare anche le persone che attualmente ne beneficiano. Quando lo si fa, c’è una reazione. Se ci si lascia intimidire, non si cambia nulla. Spesso le aziende social  non superano questa prova.

Per troppo tempo, il lavoro di integrità è stato un servizio pubblico intrappolato all'interno di entità private. Abbiamo identificato modi per costruire città migliori e abbiamo lottato per implementarle, ma spesso le nostre proposte si sono scontrate con altri obiettivi aziendali. Ci siamo ritrovati anche isolati: se un team in un'azienda scopre un'importante nuova tecnica per proteggere le persone, è difficile comunicarla ai colleghi. Ecco perché abbiamo appena lanciato l' Integrity Institute, un think tank senza scopo di lucro unico nel suo genere gestito da una comunità di professionisti dell'integrità. 

Approfondiremo gli aspetti teorici e pratici del lavoro sull'integrità e condivideremo tale conoscenza con il pubblico, le aziende e gli altri. Il mondo merita di ascoltare spiegazioni indipendenti e oneste su come funzionano queste nuove città e su come possiamo farle funzionare meglio.

Sappiamo cosa devono fare le aziende: dare la priorità alla progettazione dell'integrità, mantenere una certa moderazione dei contenuti ed essere coerenti nell’applicazione delle loro politiche. Sappiamo anche cosa deve fare il pubblico: fare pressione sulle aziende affinché facciano la cosa giusta. 

Il design dell'integrità è già realtà in alcune aziende, ma ha bisogno di supporto. Troppo spesso le aziende impediscono a questi team di svolgere al meglio il proprio lavoro quando è in conflitto con altre priorità aziendali. Negli ultimi anni, ho avuto l'onore di assistere a un'esplosione cambriana nella teoria e nella pratica dell'integrità. Ho visto il lavoro rigoroso, il profondo senso di professionalità e l'alto livello di abilità che i miei colleghi portano al lavoro. Impariamo da loro e aiutiamoli a portare avanti il loro lavoro. Nonostante tutto, credo ancora in Internet. La città sociale è troppo preziosa per lasciarla marcire. 

Sahar Massachi è il cofondatore e direttore esecutivo dell'Integrity  Institute ed ex ingegnere dell'integrità civica di Facebook.

(rp)