Apple si difende dalle accuse di violazione della privacy

La nuovissima tecnologia anti-abuso sui minori di Apple ha provocato forti polemiche per alcune funzionalità che, a parere dei critici, sollevano seri dubbi sulla possibilità di evitare forme di sorveglianza dei governi.

di Patrick Howell O’Neill

Apple ha vantato alcuni annunci iconici durante i 45 anni di storia dell’azienda, da quello famoso del Super Bowl del 1984 per Mac alla combattiva campagna pubblicitaria dell’azienda del 2019 che suonava in questo modo: “ciò che accade sul tuo iPhone rimane sul tuo iPhone”.

Qualche giorno fa, Apple ha annunciato nuove tecnologie per rilevare materiale pedopornografico (CSAM) direttamente su iPhone e, improvvisamente, sembra che ciò che è sul tuo iPhone non rimanga più sempre semplicemente lì. Le controverse nuove funzionalità colpiscono al cuore delle preoccupazioni sulla privacy, la sorveglianza e i crimini abilitati dalla tecnologia. 

Apple afferma che queste nuove funzionalità preservano la privacy mentre combattono gli abusi sui minori. Per i critici, tuttavia, la domanda più grande non riguarda cosa potrebbe fare la tecnologia oggi; si tratta di quello che potrebbe diventare domani. La nuova tecnologia di scansione di Apple consentirà una sorveglianza ancora più ampia in tutto il mondo? I governi inizieranno a chiedere ad Apple di scansionare tutti i tipi di contenuti proibiti sugli iPhone nei loro paesi? 

L’azienda afferma che il nuovo strumento di rilevamento, chiamato NeuralHash, può identificare le immagini di abusi sui minori memorizzate su un iPhone senza decifrare l’immagine e aggiunge di aver implementato i controlli per ridurre la possibilità di errori prima che le immagini vengano passate al National Center for Missing and Exploited Children (NCMEC) e quindi alle forze dell’ordine (per esempio, lo scanner deve rilevare più immagini anziché una sola). La funzione sarà disponibile quest’anno negli Stati Uniti. (Si veda tweet)

Google, Microsoft, Dropbox e altri grandi servizi cloud già scansionano il materiale archiviato sui loro server alla ricerca di contenuti pedopornografici, quindi la premessa generale non è nuova. La differenza qui è che alcune delle scansioni di Apple si verificheranno sull’iPhone stesso e Apple sostiene che questa sia la caratteristica pro-privacy che definisce la nuova tecnologia.

In un briefing con i giornalisti venerdì, Apple ha affermato che mentre altri servizi cloud scansionano quasi tutto ciò che i loro utenti caricano, la scansione sul dispositivo di Apple ha lo scopo di inviare solo un hash illeggibile all’azienda, un codice che identifica le immagini che raffigurano abusi sui minori in base a un database gestito da NCMEC anziché da Apple.

Apple ha anche sottolineato che la funzione si applica solo alle persone che caricano foto su iCloud (i caricamenti automatici sono l’impostazione predefinita su iPhone, ma possono essere disabilitati). Gli account iCloud non sono attualmente crittografati, quindi le forze dell’ordine possono già esaminarli.

Perché, allora, Apple non si limita a fare ciò che fanno le altre grandi aziende tecnologiche e scansiona le immagini quando vengono caricate sul cloud invece che quando sono ancora sul telefono di qualcuno? Perché costruire una nuova e complessa serie di tecnologie quando potrebbe semplicemente prendere la tecnologia esistente dallo scaffale?

La prossima mossa di Apple

La verità è che non sappiamo ciò che Apple sta facendo ora e cosa verrà dopo. Una teoria popolare è che l’annuncio di questa settimana sarà la prima di una serie di mosse nei prossimi mesi. Il marketing aziendale si vanta da anni della privacy. L’iPhone è stato uno dei primi dispositivi personali a essere crittografato automaticamente. iMessage è una delle app di messaggistica più popolari con crittografia end-to-end. 

Ma molti clienti Apple eseguono automaticamente il backup di tutto sui propri account iCloud, che non è mai stato crittografato. Quindi, anche nel 2019, quel famoso annuncio sulla privacy dell’iPhone avrebbe potuto riportare un piccolo asterisco.

Per anni i governi hanno esercitato un’enorme pressione su tutte le aziende tecnologiche, inclusa Apple, per consentire alle forze dell’ordine un accesso speciale a dati altrimenti crittografati al fine di prevenire quello che considerano il più atroce dei crimini. L’abuso sui minori è sempre in cima alla lista, seguito da vicino dal terrorismo. L’adozione pubblica della crittografia da parte di Apple ha reso più difficile il lavoro di alcuni poliziotti, ma anche alcuni tipi di sorveglianza e abuso di potere.

La grande scappatoia è sempre stata iCloud. I poliziotti devono lavorare sodo per entrare direttamente negli iPhone, ma se la maggior parte dei dati è già in un account iCloud non crittografato, un mandato farà la differenza.

Dopo l’annuncio di questa settimana, alcuni esperti pensano che Apple annuncerà presto che iCloud sarà crittografato. In questo caso l’azienda potrà ancora identificare materiale pedopornografico, trasmettere prove alle forze dell’ordine e sospendere l’autore del reato, alleviando parte della pressione politica sui dirigenti Apple. 

Non tutta però. La maggior parte degli stessi governi che vogliono che Apple faccia di più sugli abusi sui minori chiedono anche più azioni sui contenuti legati al terrorismo e ad altri crimini. Ma gli abusi sui minori sono un problema reale e considerevole in cui le grandi aziende tecnologiche hanno per lo più fallito fino ad oggi.

“L’approccio di Apple preserva la privacy meglio di qualsiasi altro”, afferma David Forsyth, presidente del dipartimento di informatica dell’Università dell’Illinois, a Urbana-Champaign, che ha recensito il sistema di Apple. A suo parere, questo sistema aumenterà in modo significativo la probabilità che vengano trovate persone che possiedono o trafficano in [CSAM], aiutando a proteggere i bambini. 

I normali utenti dovrebbero sperimentare una perdita di privacy minima o nulla, perché i contenuti visivi vengono rivelati solo se ci sono abbastanza corrispondenze con le immagini CSAM e solo per le quelle che corrispondono alle immagini CSAM note. L’accuratezza del sistema di corrispondenza, combinata con la soglia, rende molto improbabile che vengano rivelate altre immagini.

Cosa succede con WhatsApp?

Ogni grande azienda tecnologica affronta l’orribile realtà del materiale pedopornografico sulla sua piattaforma. Come iMessage, WhatsApp è una piattaforma di messaggistica crittografata end-to-end con miliardi di utenti. Come qualsiasi piattaforma di quelle dimensioni, deve affrontare seri problemi di abuso. “Ho letto le informazioni che Apple ha pubblicato ieri e sono preoccupato”, ha twittato il capo di WhatsApp Will Cathcart . “Penso che sia l’approccio sbagliato e una battuta d’arresto per la privacy delle persone in tutto il mondo. La gente ha chiesto se adotteremo questo sistema per WhatsApp. La risposta è no”.

WhatsApp include funzionalità in modo che qualsiasi utente possa segnalare contenuti offensivi. Sebbene le funzionalità siano tutt’altro che perfette, WhatsApp ha segnalato oltre 400.000 casi a NCMEC l’anno scorso. “Si tratta di un sistema di sorveglianza costruito e gestito da Apple che potrebbe essere facilmente utilizzato per scansionare contenuti privati alla ricerca di qualsiasi cosa loro o un governo decidano di voler controllare”, ha detto Cathcart nei suoi tweet. 

“I paesi in cui vengono venduti gli iPhone avranno definizioni diverse su ciò che è accettabile. Questo sistema sarà utilizzato in Cina? Quali contenuti considereranno illegali? Come gestiranno le richieste dei governi di tutto il mondo per aggiungere altri tipi di contenuti all’elenco per la scansione?”

Nel suo briefing con i giornalisti, Apple ha sottolineato che questa nuova tecnologia di scansione è stata rilasciata solo negli Stati Uniti finora. Ma l’azienda ha continuato a sostenere che ha una storia di lotta per la privacy e vuole continuare su questa strada. Messa così, tutto si riduce alla fiducia in Apple. L’azienda ha sostenuto che i nuovi sistemi non possono essere facilmente sottratti in modo improprio da un’azione del governo e ha sottolineato ripetutamente che rinunciare era facile come disattivare il backup di iCloud. 

Nonostante sia una delle piattaforme di messaggistica più popolari al mondo, iMessage è stato a lungo criticata per la mancanza del tipo di funzionalità di segnalazione che ora sono comuni su Internet. Di conseguenza, Apple ha storicamente segnalato una piccola parte dei casi a NCMEC rispetto a Facebook. Apple ha costruito qualcosa di completamente diverso e i risultati finali lasciano domande aperte ai falchi della privacy. Per altri, è un gradito cambiamento radicale.”La protezione estesa di Apple per i bambini è un punto di svolta”, ha dichiarato in una nota John Clark, presidente dell’NCMEC. “La realtà è che la privacy e la protezione dei bambini possono coesistere”. 

La posta in gioco è alta

Un ottimista direbbe che abilitare la crittografia completa degli account iCloud pur rilevando materiale pedopornografico è allo stesso tempo una vittoria contro gli abusi e un vantaggio per la privacy, e forse anche un’abile mossa politica che attenua la retorica anti-crittografia dei funzionari americani, europei, indiani e cinesi.

Un realista si preoccuperebbe di ciò che verrà dopo dai paesi più potenti del mondo. È una garanzia virtuale che Apple riceverà, e probabilmente ha già ricevuto, chiamate dalle capitali mentre i funzionari del governo iniziano a immaginare le possibilità di sorveglianza di questa tecnologia di scansione. La pressione politica è una cosa, la regolamentazione e il controllo autoritario sono un’altra. 

Ma questa minaccia non è nuova né è specifica di questo sistema. Come azienda con una comprovata esperienza di compromessi redditizi con la Cina, Apple ha molto lavoro da fare per convincere gli utenti della sua capacità di resistere ai governi draconiani. Il futuro definirà alla fine la nuova tecnologia di Apple. Se questa funzione viene inglobata dai governi per ampliare la sorveglianza, allora l’azienda avrà fallito nel mantenere le sue promesse sulla privacy.

Immagine di: Rebecca Harris su Unsplash

(rp)

Related Posts
Total
0
Share