La prima grande sfida di Apple nella guerra dell’intelligenza artificiale scommette sul fatto che le persone si preoccupano della privacy dei dati quando automatizzano le attività.
In occasione della Worldwide Developer Conference di lunedì, Apple ha svelato per la prima volta la sua visione di potenziare la sua linea di prodotti con l’intelligenza artificiale. La funzione chiave, che verrà applicata praticamente a tutta la linea di prodotti, è Apple Intelligence, una suite di funzionalità basate sull’intelligenza artificiale che promette di fornire servizi AI personalizzati mantenendo al contempo la sicurezza dei dati sensibili. Si tratta del più grande balzo in avanti di Apple nell’utilizzo dei nostri dati privati per aiutare l’intelligenza artificiale a svolgere compiti al posto nostro. Per dimostrare di poterlo fare senza sacrificare la privacy, l’azienda afferma di aver creato un nuovo modo di gestire i dati sensibili nel cloud.
Apple afferma che il suo sistema incentrato sulla privacy cercherà innanzitutto di svolgere le attività di intelligenza artificiale localmente sul dispositivo stesso. Se i dati vengono scambiati con i servizi cloud, verranno crittografati e successivamente eliminati. L’azienda afferma inoltre che il processo, che chiama Private Cloud Compute, sarà soggetto a verifica da parte di ricercatori di sicurezza indipendenti.
La proposta offre un contrasto implicito con aziende del calibro di Alphabet, Amazon o Meta, che raccolgono e conservano enormi quantità di dati personali. Apple afferma che tutti i dati personali trasmessi al cloud saranno utilizzati solo per il compito dell’intelligenza artificiale e non saranno conservati o accessibili all’azienda, nemmeno per il debug o il controllo di qualità, dopo che il modello avrà completato la richiesta.
In poche parole, Apple sta dicendo che ci si può fidare di analizzare dati incredibilmente sensibili – foto, messaggi ed e-mail che contengono dettagli intimi della nostra vita – e di fornire servizi automatizzati basati su ciò che trova, senza memorizzare i dati online o renderli vulnerabili.
Ha mostrato alcuni esempi di come funzionerà nelle prossime versioni di iOS. Invece di scorrere i messaggi per trovare il podcast inviato da un amico, ad esempio, si potrà semplicemente chiedere a Siri di trovarlo e riprodurlo. Craig Federighi, vicepresidente senior di Apple per l’ingegneria del software, ha illustrato un altro scenario: arriva un’e-mail che rimanda una riunione di lavoro, ma sua figlia è impegnata in uno spettacolo teatrale quella sera. Il suo telefono ora può trovare il PDF con le informazioni sullo spettacolo, prevedere il traffico locale e fargli sapere se arriverà in tempo. Queste funzionalità si estenderanno oltre le app realizzate da Apple, consentendo agli sviluppatori di attingere anche all’intelligenza artificiale di Apple.
Poiché l’azienda trae profitto più dall’hardware e dai servizi che dalla pubblicità, Apple ha meno incentivi di altre aziende a raccogliere dati personali online, il che le consente di posizionare l’iPhone come il dispositivo più privato. Tuttavia, Apple si è già trovata nel mirino dei sostenitori della privacy. Nel 2014, alcune falle nella sicurezza hanno portato alla fuga di foto esplicite da iCloud. Nel 2019 è stato scoperto che alcuni appaltatori ascoltavano registrazioni intime di Siri per il controllo della qualità. Sono in corso controversie sul modo in cui Apple gestisce le richieste di dati da parte delle forze dell’ordine.
La prima linea di difesa contro le violazioni della privacy, secondo Apple, è evitare il cloud computing per le attività di IA quando possibile. “La pietra angolare del sistema di intelligenza personale è l’elaborazione sul dispositivo”, afferma Federighi, il che significa che molti dei modelli di IA verranno eseguiti su iPhone e Mac piuttosto che nel cloud. “È consapevole dei vostri dati personali senza raccogliere i vostri dati personali”.
Ciò presenta alcuni ostacoli tecnici. A due anni dall’inizio del boom dell’intelligenza artificiale, la ricerca di modelli anche per compiti semplici richiede ancora enormi quantità di potenza di calcolo. È difficile ottenere questo risultato con i chip utilizzati nei telefoni e nei computer portatili, motivo per cui solo i modelli di IA più piccoli di Google possono essere eseguiti sui telefoni dell’azienda, mentre tutto il resto viene eseguito tramite cloud. Apple afferma che la sua capacità di gestire i calcoli di intelligenza artificiale sui dispositivi è dovuta ad anni di ricerca sulla progettazione dei chip, che hanno portato ai chip M1 che ha iniziato a distribuire nel 2020.
Tuttavia, anche i chip più avanzati di Apple non sono in grado di gestire l’intero spettro di compiti che l’azienda promette di svolgere con l’intelligenza artificiale. Se chiedete a Siri di fare qualcosa di complicato, potrebbe dover passare la richiesta, insieme ai vostri dati, a modelli disponibili solo sui server di Apple. Secondo gli esperti di sicurezza, questo passaggio introduce una serie di vulnerabilità che potrebbero esporre le informazioni dell’utente a malintenzionati esterni, o almeno alla stessa Apple.
“Avverto sempre le persone che, non appena i dati vengono tolti dal dispositivo, diventano molto più vulnerabili”, afferma Albert Fox Cahn, direttore esecutivo del Surveillance Technology Oversight Project e praticante in residenza presso l’Information Law Institute della NYU Law School.
Apple sostiene di aver mitigato questo rischio con il suo nuovo sistema Private Cloud Compute. “Per la prima volta in assoluto, Private Cloud Compute estende la sicurezza e la privacy leader del settore dei dispositivi Apple al cloud”, hanno scritto gli esperti di sicurezza di Apple nel loro annuncio, affermando che i dati personali “non sono accessibili a nessun altro se non all’utente, nemmeno ad Apple”. Come funziona?
Storicamente, Apple ha incoraggiato le persone a scegliere la crittografia end-to-end (lo stesso tipo di tecnologia utilizzata nelle app di messaggistica come Signal) per proteggere i dati sensibili di iCloud. Ma questo non funziona per l’intelligenza artificiale. A differenza delle app di messaggistica, dove un’azienda come WhatsApp non ha bisogno di vedere il contenuto dei messaggi per consegnarli agli amici, i modelli di intelligenza artificiale di Apple hanno bisogno di accedere in chiaro ai dati sottostanti per generare risposte. È qui che entra in gioco il processo di privacy di Apple. In primo luogo, Apple afferma che i dati saranno utilizzati solo per il compito in questione. In secondo luogo, questo processo sarà verificato da ricercatori indipendenti.
Inutile dire che l’architettura di questo sistema è complicata, ma si può immaginare come un protocollo di crittografia. Se il telefono stabilisce che ha bisogno dell’aiuto di un modello di intelligenza artificiale più grande, confeziona una richiesta contenente il prompt che sta utilizzando e il modello specifico, quindi inserisce un blocco su tale richiesta. Solo il modello AI specifico da utilizzare avrà la chiave corretta.
Alla domanda di MIT Technology Review se gli utenti saranno avvisati quando una determinata richiesta sarà inviata a modelli di intelligenza artificiale basati sul cloud invece di essere gestita sul dispositivo, un portavoce di Apple ha risposto che ci sarà trasparenza per gli utenti ma che non sono disponibili ulteriori dettagli.
Dawn Song, co-direttrice dell’UC Berkeley Center on Responsible Decentralized Intelligence ed esperta di informatica privata, afferma che i nuovi sviluppi di Apple sono incoraggianti. “L’elenco degli obiettivi annunciati è ben ponderato”, afferma l’esperta. “Naturalmente ci saranno alcune sfide per raggiungere questi obiettivi”.
Cahn afferma che, a giudicare da ciò che Apple ha rivelato finora, il sistema sembra molto più protettivo per la privacy rispetto ad altri prodotti di intelligenza artificiale attualmente in circolazione. Detto questo, il ritornello comune nel suo settore è “Fidati ma verifica”. In altre parole, non sapremo quanto questi sistemi mantengano sicuri i nostri dati finché ricercatori indipendenti non verificheranno le sue affermazioni, come promette Apple, e l’azienda non risponderà alle loro scoperte.
“Aprirsi a una revisione indipendente da parte dei ricercatori è un grande passo”, dice. “Ma questo non determina il modo in cui reagirete quando i ricercatori vi diranno cose che non volete sentire”. Apple non ha risposto alle domande di MIT Technology Review su come l’azienda valuterà il feedback dei ricercatori.
Il patto privacy-AI
Apple non è l’unica azienda a scommettere che molti di noi concederanno ai modelli di intelligenza artificiale un accesso quasi illimitato ai nostri dati privati, se ciò significa che potranno automatizzare compiti noiosi. Sam Altman di OpenAI ha descritto al MIT Technology Review lo strumento di IA dei suoi sogni come uno strumento “che sa assolutamente tutto della mia vita, ogni email, ogni conversazione che ho avuto”. Alla conferenza degli sviluppatori di maggio, Google ha annunciato Project Astra, un progetto ambizioso per costruire un “agente AI universale che sia utile nella vita di tutti i giorni”.
Si tratta di un affare che costringerà molti di noi a considerare per la prima volta quale ruolo, se mai ce ne sarà uno, vogliamo che i modelli di IA giochino nel modo in cui interagiamo con i nostri dati e dispositivi. Quando ChatGPT è arrivato sulla scena, non era una domanda da porsi. Era semplicemente un generatore di testo che poteva scriverci un biglietto d’auguri o una poesia, e le domande che sollevava, come la provenienza dei suoi dati di addestramento o i pregiudizi che perpetuava, non sembravano così personali.
Ora, a meno di due anni di distanza, le Big Tech stanno facendo scommesse miliardarie sul fatto che ci fidiamo abbastanza della sicurezza di questi sistemi da consegnare le nostre informazioni private. Non è ancora chiaro se sappiamo abbastanza per fare questa scelta, o quanto siamo in grado di scegliere di non farlo anche se vorremmo. “Temo che assisteremo a questa corsa agli armamenti dell’intelligenza artificiale che spingerà sempre più i nostri dati nelle mani di altre persone”, afferma Cahn.
Apple rilascerà presto delle versioni beta delle sue funzioni di Apple Intelligence, a partire dal prossimo autunno con l’iPhone 15 e il nuovo macOS Sequoia, che potrà essere eseguito su Mac e iPad con chip M1 o più recenti. Tim Cook, CEO di Apple, ha dichiarato: “Pensiamo che l’intelligenza Apple sarà indispensabile”.