Un sistema proposto da ricercatori del MIT, OpenAI, Microsoft e altri potrebbe frenare l’uso di IA ingannevoli sfruttando le debolezze della tecnologia.
Man mano che i modelli di intelligenza artificiale migliorano nell’imitare il comportamento umano, diventa sempre più difficile distinguere tra i veri utenti umani di Internet e i sistemi sofisticati che li imitano.
Questo è un vero problema quando questi sistemi vengono utilizzati per scopi nefasti, come la diffusione di informazioni errate o le frodi, e rende molto più difficile fidarsi di ciò che si incontra online.
Un gruppo di 32 ricercatori di istituzioni come OpenAI, Microsoft, MIT e Harvard ha sviluppato una potenziale soluzione: un concetto di verifica chiamato “credenziali di personalità”. Queste credenziali dimostrano che il loro titolare è una persona reale, senza rivelare ulteriori informazioni sulla sua identità. Il team ha esplorato l’idea in un documento non sottoposto a revisione paritaria pubblicato su arXiv all’inizio del mese.
Le credenziali di personalità si basano sul fatto che i sistemi di intelligenza artificiale non possono ancora aggirare i sistemi crittografici più avanzati o passare per persone nel mondo reale offline.
Per richiedere tali credenziali, le persone dovrebbero recarsi fisicamente presso uno dei vari emittenti, come un governo o un altro tipo di organizzazione fidata. Verrebbe chiesto loro di fornire la prova di essere un essere umano reale, come un passaporto o dati biometrici. Una volta approvata, riceverebbero un’unica credenziale da memorizzare sui propri dispositivi, come attualmente è possibile memorizzare le carte di credito e di debito nelle app portafoglio degli smartphone.
Per utilizzare queste credenziali online, un utente potrebbe presentarle a un fornitore di servizi digitali di terze parti, che potrebbe quindi verificarle utilizzando un protocollo crittografico chiamato prova a conoscenza zero. Ciò confermerebbe che il titolare è in possesso di una credenziale di personalizzazione senza rivelare ulteriori informazioni non necessarie.
La capacità di filtrare chiunque non sia una persona verificata su una piattaforma potrebbe essere utile in molti modi. Ad esempio, le persone potrebbero rifiutare le corrispondenze di Tinder che non sono accompagnate da credenziali di identità, o scegliere di non vedere nulla sui social media che non sia stato postato da una persona.
Gli autori vogliono incoraggiare i governi, le aziende e gli enti di standardizzazione a considerare l’adozione di un sistema di questo tipo in futuro, per evitare che l’inganno dell’IA sfugga al nostro controllo.
“L’intelligenza artificiale è ovunque. Ci saranno molte questioni, molti problemi e molte soluzioni”, afferma Tobin South, uno studente di dottorato al MIT che ha lavorato al progetto. “Il nostro obiettivo non è quello di prescrivere questo al mondo, ma di aprire la conversazione sul perché ne abbiamo bisogno e su come si potrebbe fare”.
Esistono già possibili opzioni tecniche. Ad esempio, una rete chiamata Idena sostiene di essere il primo sistema blockchain proof-of-person. Funziona facendo in modo che gli esseri umani risolvano enigmi che sarebbero difficili per i bot entro un breve lasso di tempo. Il controverso WorldcoWorldcoin che raccoglie i dati biometrici degli utenti, si presenta come la più grande rete finanziaria e d’identità umana a tutela della privacy al mondo. Di recente ha stretto una partnership con il governo malese per fornire una prova di umanità online attraverso la scansione dell’iride degli utenti, che crea un codice. Come nel concetto di credenziali di identità, ogni codice è protetto dalla crittografia.
Tuttavia, il progetto è stato criticato per l’utilizzo di pratiche di marketing ingannevoli, per la raccolta di più dati personali di quelli riconosciuti e per non aver ottenuto un consenso significativo dagli utenti. Le autorità di regolamentazione di Hong Kong e della Spagna hanno vietato a Worldcoin di operare all’inizio di quest’anno, mentre le sue operazioni sono state sospese in paesi come Brasile, Kenya e India.
Sono quindi necessari nuovi concetti. La rapida ascesa di strumenti di intelligenza artificiale accessibili ha inaugurato un periodo pericoloso in cui gli utenti di Internet sono iper-sospettosi riguardo a ciò che è o non è vero online, afferma Henry Ajder, un esperto di intelligenza artificiale e deepfakes che è consulente di Meta e del governo britannico. Sebbene le idee per la verifica della personalità siano in circolazione da tempo, queste credenziali sembrano essere una delle idee più concrete per contrastare lo scetticismo dilagante.
Ma la sfida più grande che le credenziali dovranno affrontare è quella di convincere un numero sufficiente di piattaforme, servizi digitali e governi ad adottarle, poiché potrebbero sentirsi a disagio nel conformarsi a uno standard che non controllano. “Per funzionare in modo efficace, dovrebbe essere qualcosa di universalmente adottato”, spiega. “In linea di principio la tecnologia è abbastanza convincente, ma nella pratica e nel mondo disordinato degli esseri umani e delle istituzioni, penso che ci sarebbe molta resistenza”.
Martin Tschammer, responsabile della sicurezza della startup Synthesia, che crea deepfakes iperrealistici generati dall’intelligenza artificiale, afferma di essere d’accordo con il principio che guida le credenziali di personalità: la necessità di verificare gli esseri umani online. Tuttavia, non è sicuro che sia la soluzione giusta o che sia pratica da implementare. Esprime inoltre scetticismo su chi gestirebbe un tale schema.
“Potremmo ritrovarci in un mondo in cui centralizziamo ancora di più il potere e concentriamo il processo decisionale sulle nostre vite digitali, dando alle grandi piattaforme Internet ancora più proprietà su chi può esistere online e per quale scopo”, afferma. “E data la scarsa performance di alcuni governi nell’adozione dei servizi digitali e le tendenze autocratiche in aumento, è pratico o realistico aspettarsi che questo tipo di tecnologia venga adottato in massa e in modo responsabile entro la fine di questo decennio?”.
Piuttosto che aspettare la collaborazione tra i vari settori, Synthesia sta valutando come integrare altri meccanismi di verifica della personalità nei suoi prodotti. Synthesia afferma che ha già adottato diverse misure. Ad esempio, richiede alle aziende di dimostrare di essere imprese registrate legittimamente e vieta e rifiuta i rimborsi ai clienti che violano le sue regole.
Una cosa è chiara: abbiamo urgente bisogno di modi per differenziare gli esseri umani dai bot, e incoraggiare le discussioni tra le parti interessate del mondo tecnologico e politico è un passo nella giusta direzione, afferma Emilio Ferrara, professore di informatica alla University of Southern California, che non è stato coinvolto nel progetto. “Non siamo lontani da un futuro in cui, se le cose non vengono controllate, saremo essenzialmente incapaci di distinguere le interazioni che abbiamo online con altri esseri umani o con alcuni tipi di bot. Bisogna fare qualcosa”, afferma. “Non possiamo essere ingenui come lo sono state le generazioni precedenti nei confronti delle tecnologie”.