Un nuovo rapporto di Freedom House racconta come i governi stanno usando la tecnologia per amplificare la censura.
Nell’ultimo anno l’intelligenza artificiale ha potenziato gli strumenti degli stati per limitare le libertà di Internet.
I governi e i soggetti politici di tutto il mondo, sia nelle democrazie sia nelle autocrazie, stanno usando l’intelligenza artificiale per generare testi, immagini e video per manipolare l’opinione pubblica a loro favore e per censurare automaticamente i contenuti critici online. In un nuovo rapporto pubblicato da Freedom House, un gruppo di difesa dei diritti umani, i ricercatori hanno documentato l’uso dell’IA generativa in 16 Paesi “per seminare dubbi, diffamare gli avversari o influenzare il dibattito pubblico”.
Il rapporto annuale, Freedom on the Net, assegna un punteggio e classifica i Paesi in base al loro grado relativo di libertà di Internet, misurato da una serie di fattori come le chiusure di Internet, le leggi che limitano l’espressione e le ritorsioni online. L’edizione 2023, pubblicata il 4 ottobre, ha rilevato che la libertà di Internet a livello globale è diminuita per il 13° anno consecutivo, in parte a causa della proliferazione dell’intelligenza artificiale.
“La libertà di Internet è ai minimi storici e i progressi dell’IA stanno di fatto peggiorando questa crisi”, afferma Allie Funk, ricercatrice che si è occupata del rapporto. Funk afferma che una delle scoperte più importanti di quest’anno riguarda i cambiamenti nel modo in cui i governi utilizzano l’IA, anche se stiamo appena iniziando a capire come la tecnologia stia incrementando l’oppressione digitale.
Funk ha rilevato due fattori principali alla base di questi cambiamenti: l’economicità e l’accessibilità dell’IA generativa sta abbassando la barriera d’ingresso per le campagne di disinformazione e i sistemi automatizzati stanno consentendo ai governi di condurre forme più precise e più sottili di censura online.
Disinformazione e deepfake
Mentre gli strumenti di IA generativa diventano sempre più sofisticati, i soggetti politici continuano a impiegare la tecnologia per amplificare la disinformazione.
I media statali venezuelani, ad esempio, hanno diffuso messaggi pro-governativi attraverso video generati dall’IA di conduttori di telegiornali di un inesistente canale internazionale in lingua inglese. Sono stati prodotti da Synthesia, un’azienda che produce deepfake personalizzati. Negli Stati Uniti, video e immagini di leader politici manipolati dall’intelligenza artificiale hanno fatto il giro dei social media. Tra gli esempi, un video che ritrae il presidente Biden mentre fa commenti transfobici e un’immagine di Donald Trump che abbraccia Anthony Fauci.
Oltre agli strumenti di intelligenza artificiale generativa, i governi hanno continuato a utilizzare tattiche più vecchie, come la combinazione di campagne umane e bot per manipolare le discussioni online. Almeno 47 governi hanno impiegato commentatori per diffondere la propaganda nel 2023, il doppio rispetto a dieci anni fa.
Sebbene questi sviluppi non siano necessariamente sorprendenti, secondo Funk uno dei risultati più interessanti è che l’accessibilità diffusa dell’IA generativa può minare la fiducia nei fatti verificabili. Man mano che i contenuti generati dall’IA su Internet si normalizzano, “i soggetti politici potranno mettere in dubbio le informazioni affidabili”, afferma Funk. Si tratta di un fenomeno noto come “dividendo del bugiardo” (liar’s dividend), in cui la diffidenza verso le falsificazioni rende le persone più scettiche nei confronti delle informazioni vere, soprattutto in tempi di crisi o di conflitto politico, quando le informazioni false possono dilagare.
Ad esempio, nell’aprile del 2023, le registrazioni trapelate di Palanivel Thiagarajan, un importante funzionario indiano, hanno scatenato una polemica dopo aver mostrato il politico denigrare i membri del suo partito. Mentre Thiagarajan denunciò che i clip audio erano stati generati da una macchina, ricercatori indipendenti stabilirono che almeno una delle registrazioni era autentica.
Chatbot e censura
I regimi autoritari, in particolare, stanno utilizzando l’IA per rendere la censura più diffusa ed efficace.
I ricercatori di Freedom House hanno documentato 22 Paesi che hanno approvato leggi che richiedono alle piattaforme Internet di utilizzare l’apprendimento automatico per rimuovere i discorsi online sfavorevoli. In Cina, ad esempio, i chatbot sono stati programmati per non rispondere a domande su Piazza Tiananmen. In India, le autorità dell’amministrazione del primo ministro Narendra Modi hanno ordinato a YouTube e Twitter di limitare l’accesso a un documentario sulle violenze avvenute durante il mandato di Modi come chief minister dello Stato del Gujarat, incoraggiando a loro volta le aziende tecnologiche a filtrare i contenuti attraverso strumenti di moderazione basati sull’intelligenza artificiale.
In totale, l’anno scorso 41 governi hanno bloccato siti web per discorsi politici, sociali e religiosi, il che “dimostra l’intensificarsi della censura in tutto il mondo”, afferma Funk. L’Iran ha subito il maggior calo annuale nella classifica di Freedom House dopo che le autorità hanno interrotto il servizio internet, bloccato WhatsApp e Instagram e aumentato la sorveglianza dopo le storiche proteste antigovernative dell’autunno 2022. Secondo il rapporto, il Myanmar e la Cina hanno la censura più restrittiva su Internet, un titolo che la Cina detiene da nove anni consecutivi.