STEPHANIE ARNETT/MITTR | ENVATO

La lotta sul futuro della crittografia, spiegata

Due tipi di tecnologie potrebbero cambiare la privacy dei messaggi criptati e queste novità potrebbero avere un impatto su tutti noi.

Il 9 ottobre ho moderato una tavola rotonda su crittografia, politica della privacy e diritti umani all’annuale Internet Governance Forum delle Nazioni Unite. Ho condiviso il palco con alcuni favolosi relatori, tra cui Roger Dingledine, direttore del Tor Project, Sharon Polsky, presidente del Privacy and Access Council of Canada, e Rand Hammoud, attivista di Access Now, un’organizzazione in difesa dei diritti umani. Tutti credono fermamente e sostengono la protezione della crittografia.

Vorrei parlarvi di una cosa che è emersa durante la nostra conversazione: gli sforzi per monitorare in qualche modo i messaggi criptati.

In tutto il mondo (come in Australia, India e, più recentemente, nel Regno Unito) sono spuntate proposte politiche che chiedono alle aziende tecnologiche di creare modi per ottenere informazioni sui messaggi criptati, anche attraverso un accesso back-door. Ci sono stati anche sforzi per aumentare la moderazione e la sicurezza sulle app di messaggistica criptata, come Signal e Telegram, per cercare di prevenire la diffusione di contenuti vietati e pericolosi, come materiale pedopornografico, reti criminali e traffico di droga.

Non sorprende che i sostenitori della crittografia siano generalmente contrari a questo tipo di proposte, in quanto indeboliscono il livello di privacy degli utenti attualmente garantito dalla crittografia end-to-end.

Nel mio lavoro di preparazione prima del panel, e poi nella nostra conversazione, sono venuto a conoscenza di alcune nuove tecnologie crittografiche che potrebbero consentire una certa moderazione dei contenuti, nonché una maggiore applicazione delle politiche e delle leggi della piattaforma, il tutto senza infrangere la crittografia. Al momento si tratta di tecnologie marginali, per lo più ancora in fase di ricerca. Sebbene siano state sviluppate in diversi modi, la maggior parte di queste tecnologie consente apparentemente agli algoritmi di valutare i messaggi o gli schemi nei loro metadati e di segnalare il materiale problematico senza dover violare la crittografia o rivelare il contenuto dei messaggi.

Dal punto di vista legale e politico, questo spazio è una sorta di vespaio: gli Stati cercano disperatamente di reprimere le attività illecite sulle piattaforme, ma i sostenitori della libertà di parola sostengono che le revisioni porteranno alla censura. A mio avviso, è uno spazio che vale la pena di tenere sotto controllo, perché potrebbe avere un impatto su tutti noi.

Ecco cosa c’è da sapere:

Innanzitutto, alcune nozioni di base sulla crittografia e sul dibattito…

Anche se non conoscete esattamente il funzionamento della crittografia, probabilmente la utilizzate regolarmente. Si tratta di una tecnologia che utilizza la crittografia (essenzialmente, la matematica responsabile dei codici) per scambiare i messaggi in modo che il loro contenuto rimanga privato. Oggi si parla molto di crittografia end-to-end, in cui il mittente trasmette un messaggio che viene crittografato e inviato come testo cifrato. Il destinatario deve poi decifrarlo per leggere il messaggio in chiaro. Con la crittografia end-to-end, anche le aziende tecnologiche che producono applicazioni crittografate non hanno le “chiavi” per decifrare il codice.

La crittografia è stata oggetto di dibattito dal punto di vista politico fin dalla sua nascita, soprattutto dopo crimini di alto profilo o attacchi terroristici (l’indagine sulla sparatoria di San Bernardino del 2015 ne è un esempio). Le aziende tecnologiche sostengono che fornire l’accesso alle chiavi di decifrazione comporterebbe rischi sostanziali, in quanto sarebbe difficile tenere lontana da malintenzionati una chiave principale, che oggi di fatto non esiste. Gli oppositori di queste porte secondarie sostengono inoltre che non ci si può fidare delle forze dell’ordine per questo tipo di accesso.

Parlami di questa nuova tecnologia…

Ci sono due principali gruppi di tecnologie da tenere d’occhio in questo momento.

Scansione automatica: È la più popolare e la più controversa. Si tratta di sistemi basati sull’intelligenza artificiale che analizzano il contenuto dei messaggi e lo confrontano con un database di materiale identificato. Se un messaggio viene segnalato come potenzialmente pericoloso, le aziende tecnologiche potrebbero teoricamente impedire l’invio del messaggio o segnalare in qualche modo il materiale alle forze dell’ordine o al destinatario. Esistono due modi principali per farlo: la scansione lato client e la scansione lato server (talvolta chiamata crittografia omomorfa), con le principali differenze che riguardano il modo e il luogo in cui il messaggio viene scansionato e confrontato con un database.

La scansione lato client avviene sui dispositivi degli utenti prima che i messaggi vengano crittografati e inviati; la scansione lato server avviene una volta che il messaggio è stato crittografato e inviato, intercettandolo prima che raggiunga il destinatario (alcuni sostenitori della privacy sostengono che la scansione lato server protegga maggiormente l’anonimato, poiché gli algoritmi elaborano il messaggio già crittografato per verificare le corrispondenze con il database senza rivelarne il contenuto effettivo).

Contro: Da un punto di vista tecnico, occorre molta potenza di calcolo per confrontare ogni messaggio con un database prima che venga inviato o ricevuto, quindi non è molto facile scalare questa tecnologia. Inoltre, gli algoritmi di moderazione non sono perfettamente accurati, per cui si corre il rischio che l’intelligenza artificiale segnali messaggi che non sono problematici, dando luogo a un giro di vite sulla libertà di parola e potenzialmente intrappolando persone innocenti. Dal punto di vista della censura e della privacy, non è difficile capire quanto questo approccio possa essere controverso. E chi deciderà cosa inserire nel database del materiale discutibile?

Apple ha proposto di implementare la scansione lato client nel 2021 per reprimere il materiale pedopornografico, ma ha rapidamente abbandonato il piano. Il presidente di Signal, Meredith Whittaker, ha dichiarato che “la scansione lato client è un patto faustiano che annulla l’intera premessa della crittografia end-to-end, imponendo una tecnologia profondamente insicura che consentirebbe al governo di controllare letteralmente ogni parola prima che venga espressa”.

Message franking e forward tracing: Il message franking utilizza la crittografia per produrre segnalazioni verificabili di messaggi dannosi. Attualmente, quando gli utenti segnalano un abuso su un’app di messaggistica crittografata, non c’è modo di verificare tali segnalazioni perché le aziende tecnologiche non possono vedere il contenuto effettivo dei messaggi e gli screenshot sono facilmente manipolabili.

Il message franking è stata proposto da Facebook nel 2017 e in pratica incorpora un tag in ogni messaggio che funziona come una firma elettronica invisibile. Quando un utente segnala un messaggio come illegale o pericoloso, Facebook può quindi utilizzare tale tag per verificare che il messaggio segnalato non sia stato manomesso.

Il forward tracing si basa sull’affrancatura dei messaggi e consente alle piattaforme di tracciare l’origine di un messaggio crittografato. Spesso i messaggi pericolosi vengono inoltrati e condivisi più volte, rendendo difficile per le piattaforme controllare la diffusione dei contenuti anche se sono stati segnalati dagli utenti e verificati. Come il message franking dei messaggi, il forward tracing utilizza codici crittografici per consentire alle piattaforme di vedere da dove proviene un messaggio. In teoria, le piattaforme potrebbero chiudere l’account o gli account che diffondono i messaggi problematici.

Contro: Queste tecniche non consentono alle aziende tecnologiche o alle autorità di avere un maggiore potere di moderazione nei messaggi privati, ma contribuiscono a rendere più solida la moderazione centrata sull’utente e sulla comunità e offrono maggiore visibilità negli spazi criptati. Tuttavia, non è chiaro se questo approccio sia effettivamente legale, almeno negli Stati Uniti; alcune analisi hanno suggerito che potrebbe violare la legge statunitense sulle intercettazioni.

Cosa c’è dopo?

Per il momento, nessuna di queste tecnologie sembra essere pronta per essere implementata da un punto di vista tecnico, e potrebbero avere un terreno traballante dal punto di vista legale. Nel Regno Unito, una versione precedente della legge sulla sicurezza online imponeva ai fornitori di messaggistica criptata di adottare questo tipo di tecnologie, ma il mese scorso il testo è stato rimosso dopo che è emerso chiaramente che questa tecnologia non era ancora pronta. Meta ha in programma di crittografare Facebook Messenger entro la fine del 2023 e i messaggi diretti di Instagram subito dopo, quindi sarà interessante vedere se incorporerà qualche ricerca su queste tecnologie.

Nel complesso, e forse non sorprende visto il loro lavoro, i miei relatori non sono troppo ottimisti su questo settore e hanno sostenuto che le conversazioni politiche dovrebbero concentrarsi innanzitutto sulla protezione della crittografia e sull’aumento della privacy.

Come mi ha detto Dingledine dopo il nostro panel, “la tecnologia è un luogo senza confini. Se si rompe la crittografia per uno, si rompe la crittografia per tutti, minando la sicurezza nazionale e potenzialmente danneggiando gli stessi gruppi che si cerca di proteggere”.

Cos’altro sto leggendo

  • Le sfide della moderazione degli spazi criptati sono emerse questa settimana con gli orrori in Israele e Palestina. I militanti di Hamas hanno giurato di trasmettere le esecuzioni sui social media e finora hanno utilizzato in modo massiccio Telegram, un’applicazione criptata. Drew Harwell del Washington Post spiega perché questo tipo di contenuti violenti potrebbe essere impossibile da eliminare da Internet.
  • Un fronte essenziale della guerra tecnologica tra Stati Uniti e Cina è stata la lotta per il controllo dei chip di calcolo avanzati necessari per l’intelligenza artificiale. Ora gli Stati Uniti stanno pensando di trovare il modo di bloccare la Cina stessa dall’intelligenza artificiale avanzata, scrive Karen Hao sull’Atlantic.
  • Un nuovo rapporto schiacciante di un gruppo di supervisione del Dipartimento di Sicurezza Nazionale ha rilevato che diverse agenzie, tra cui l’Immigration and Customs Enforcement, la Customs and Border Protection e i Servizi Segreti, hanno violato la legge utilizzando i dati di localizzazione raccolti dalle app sugli smartphone, scrive Joe Cox su 404 Media.

Cosa ho imparato questa settimana

L’Oversight Board di Meta, un organo indipendente che emette politiche vincolanti per l’azienda tecnologica, sta lavorando al suo primo caso di deepfake. Secondo quanto riferito, ha accettato di rivedere la decisione di Facebook di lasciare online un video manipolato del presidente Joe Biden. Meta ha dichiarato che il video non è stato rimosso perché non è stato generato dall’IA né presentava un discorso manipolato.

“Il Consiglio ha scelto questo caso per valutare se le politiche di Meta coprono adeguatamente i video alterati che potrebbero indurre le persone a credere che i politici abbiano compiuto azioni che invece non hanno compiuto”, ha scritto il Consiglio in un post sul blog.

Ciò significa che il consiglio di amministrazione probabilmente riaffermerà o modificherà presto la politica della piattaforma di social media sui deepfakes in vista delle elezioni presidenziali statunitensi, che potrebbero avere enormi ramificazioni nel corso del prossimo anno, dato che l’IA generativa continua a farsi strada negli ecosistemi di informazione digitale.

Related Posts
Total
0
Share