La sfiducia nei sistemi di AI li rende più sicuri

Ayanna Howard, esperta di robotica e formatrice, afferma che la nostra eccessiva fiducia nei sistemi automatizzati può esporci a situazioni pericolose.

di Karen Hao

Ayanna Howard ha sempre cercato di utilizzare robot e intelligenza artificiale per aiutare le persone. Nei suoi quasi 30 anni di carriera, ha costruito innumerevoli robot: per esplorare Marte, per eliminare i rifiuti pericolosi e per assistere i bambini con bisogni speciali. Per farlo, ha sviluppato una serie impressionante di tecniche di manipolazione robotica, navigazione autonoma e visione artificiale. Nella sua esperienza, si è scontrata in quello che considera un errore comune: riporre troppa fiducia nei sistemi automatizzati.

Il 12 maggio, l’Association for Computing Machinery le ha assegnato l’Athena Lecturer Award, un riconoscimento per le donne che hanno dato un contributo fondamentale in campo informatico. L’organizzazione ha riconosciuto non solo l’impressionante elenco di risultati scientifici di Howard, ma anche la sua passione e il suo impegno per la comunità, in particolare per incrementare la partecipazione e la fidelizzazione delle giovani donne e delle minoranze sottorappresentate nel campo.

A marzo, dopo 16 anni come professore del Georgia Institute of Technology, è diventata preside della facoltà di ingegneria della Ohio State University. È la prima donna ad aver assunto questo ruolo. Il giorno in cui ha ricevuto il premio ACM, ho parlato con Howard della sua carriera e delle sue ultime ricerche.

Ho notato che usa il termine “intelligenza umanizzata” per descrivere la sua ricerca, invece di “intelligenza artificiale”. Perché?

E’ vero, ho iniziato a farlo in un articolo nel 2004. Stavo pensando al motivo per cui lavoriamo sull’intelligenza per la robotica e i sistemi di intelligenza artificiale. Non è che vogliamo creare forme d’intelligenza al di fuori delle nostre interazioni con le persone. Siamo motivati dall’esperienza umana, dai dati umani, dagli input umani. “Intelligenza artificiale” implica che si tratta di un diverso tipo di intelligenza, mentre “intelligenza umanizzata” mette l’accento sul fatto che è un’intelligenza motivata dai rapporti umani. E questo significa che quando creiamo questi sistemi, ci assicuriamo anche che abbiano anche alcuni dei nostri valori sociali.

Come si è avvicinata a questo tipo di lavoro?

Risale ai miei studi di dottorato. A quel tempo, stavo lavorando alla formazione di un manipolatore robotico per rimuovere i pericoli all’interno degli ospedali. Questo accadeva ai tempi in cui gli aghi venivano gettati nella stessa spazzatura insieme a tutto il resto e c’erano casi in cui gli operatori ospedalieri si ammalavano. Quindi stavo pensando: come progettate i robot per migliorare la sicurezza in quell’ambiente? Si trattava quindi di costruire robot utili per le persone. Mi sono resa conto che non sapevamo come costruire robot per svolgere queste attività in modo adeguato; eppure le persone le fanno normalmente, quindi era il caso di imitarle.

Poi stavo lavorando con la NASA e cercavo di risolvere il problema della futura navigazione del rover su Marte. Stesso discorso degli ospedali: gli scienziati sapevano farlo molto bene. Quindi ho cercato di fare in modo che gli scienziati operassero in telelavoro su questi rover e guardassero cosa stavano vedendo sulle telecamere e decidessero quale era la forma di guida migliore. Questo è sempre stato il tema: rivolgersi agli esperti umani, codificare quello che stanno facendo in un algoritmo e poi farlo capire al robot.

Allora altre persone pensavano e parlavano di intelligenza artificiale e robotica incentrate sull’uomo? O lei rappresentava un caso isolato?

Oh, ero sola. Guardavo le cose in modo diverso da chiunque altro. E allora non esisteva una guida su come fare questo tipo di ricerca. In effetti, quando ripenso a come ho portato avanti il mio lavoro, lo farei in modo totalmente diverso. Esiste una grande mole di esperienze e conoscenze che da allora sono emerse sul campo.

Quando ha iniziato a privilegiare l’idea della relazione tra robot e esseri umani?

La spinta iniziale è uno studio che abbiamo condotto sull’evacuazione di emergenza e sulla fiducia nei robot. Quello che volevamo capire era se gli esseri umani quando si trovano in una situazione ad alto rischio si fidavano della guida di un robot. Così abbiamo portato le persone in un edificio con uffici abbandonato fuori dal campus e le abbiamo fatte accompagnare da una guida turistica robotica. Mentre erano lì, abbiamo riempito l’edificio di fumo e attivato l’allarme antincendio.

Volevamo verificare se, mentre uscivano, si sarebbero diretti al segnale di uscita della porta principale o avrebbero seguito la guida del robot che li avrebbe portati in una direzione diversa. Pensavamo che le persone si sarebbero dirette alla porta principale perché era entrate da lì, e ricerche precedenti hanno detto che quando le persone si trovano in una situazione di emergenza, tendono a privilegiare percorsi con cui hanno familiarità.  Ma i partecipanti non l’ hanno fatto. In realtà hanno seguito il robot.

Poi abbiamo introdotto alcuni situazione di stress. Il robot ha avuto difficoltà, lo abbiamo fatto girare in tondo, lo abbiamo fatto andare in una direzione che richiedeva di spostare i mobili. Credevamo che qualche persona avrebbe detto: “Torniamo all’entrata principale”. Invece lo hanno seguito fino alla fine. E’ stata la prima volta che le nostre ipotesi si sono rivelate totalmente sbagliate. Non ritenevamo possibile che le persone si fidassero del sistema a tal punto. Una situazione interessante, ma decisamente problematica.

Dopo questo esperimento, si è trovata di fronte nuovamente a episodi simili nella vita reale?

Ogni volta che vedo un incidente con Tesla. Soprattutto all’inizio pensavo: “le persone si fidano troppo di questi sistemi”. Se uno guarda il cellulare e sente il beep, lo prende in mano, giusto? È istintivo. Lo fa perché pensa che il sistema di guida sia del tutto affidabile e che può continuare a fare qualunque cosa stava già facendo. Quindi il problema è il basso livello di rischio o incertezza che l’utente percepisce.

Sta dicendo che in questo tipo di scenari si deve progettare attivamente la sfiducia nel sistema per renderlo più sicuro?

Esattamente, è quello che si deve fare. In questo momento stiamo effettivamente tentando un esperimento attorno all’idea del denial of service. Non abbiamo ancora risultati e stiamo valutando alcune preoccupazioni di ordine etico in quanto è difficile spiegare perché si nega un servizio se qualcuno ne ha davvero bisogno. Voglio fare un esempio con Tesla. Creo un profilo della fiducia dell’utente in base a quante volte non ha tenuto in mano il volante.  Con questo modello, superato un certo limite, la prossima volta che sale in macchina, gli verrà negato il servizio. Non avrà accesso al sistema per X periodo di tempo. È qualcosa di simile a quando si punisce un adolescente portandogli via il telefono per punirlo di qualche mancanza. 

Ci sono altre misure che ha preso in considerazione per aumentare la sfiducia nei sistemi?

L’altra metodologia che abbiamo esplorato si può definire intelligenza artificiale spiegabile, in cui il sistema offre una spiegazione rispetto ad alcuni dei suoi rischi o incertezze. Perchè tutti questi sistemi hanno livelli di incertezza, nessuno di loro garantisce il 100 per cento di affidabilità. E un sistema sa quando è incerto. Quindi potrebbe fornire questa informazione in un modo comprensibile alle persone che potranno decidere di conseguenza il loro comportamento.

Supponiamo che io sia un’auto a guida autonoma e che disponga di tutte le informazioni sulla mappa e so che alcuni incroci sono più soggetti a incidenti di altri. Quando ci avviciniamo a uno di questi, direi: “Siamo in prossimità di un incrocio in cui sono morte 10 persone l’anno scorso”. In un caso del genere chi è al volante dovrebbe comportarsi aumentando il suo livello di attenzione.

Abbiamo già parlato di alcune delle preoccupazioni sulla nostra tendenza a fidarci eccessivamente di questi sistemi. Ma ci sono anche vantaggi?

Gli aspetti negativi sono legati al pregiudizio.  Se mi fido eccessivamente di sistemi che prendono decisioni diverse per differenti gruppi di individui, per esempio diagnosi mediche diversificate tra donne e uomini, aumentano le disuguaglianze che abbiamo attualmente. Questo é un problema. E in settori legati alla salute o al trasporto, che possono portare a situazioni di vita o di morte, una decisione sbagliata può effettivamente essere nefasta. Quindi dobbiamo davvero risolverlo.

Gli aspetti positivi sono che in genere i sistemi automatizzati sono migliori delle persone, per cui personalmente preferirei interagire con un sistema di intelligenza artificiale in alcune situazioni rispetto a certi umani in altre situazioni. L’AI ha più dati, è più precisa. Soprattutto se le persone sono alle prime armi.

Oltre alla sua ricerca sulla robotica e sull’intelligenza artificiale, è stata sempre una grande sostenitrice dell’aumento della diversità nel campo. Ha avviato un programma per fare da mentore alle ragazze della scuola media a rischio 20 anni fa, prima che molte persone si occupassero di questo problema. Perché è importante per lei e per tutto il settore?

È importante per me perché posso identificare i momenti della mia vita in cui qualcuno mi ha permesso di accedere all’ingegneria e all’informatica. Non sapevo nemmeno che fosse possibile. Da allora ho sentito che avrei dovuto fare la stessa cosa per chi veniva dopo di me. Invecchiando, ho notato che c’erano molte persone diverse da me dove lavoravo. E’ importante per il campo perché ognuno porta una esperienza differente. 

Proprio come stavo pensando all’interazione uomo-robot prima ancora che diventasse una realtà. Non è successo perché fossi brillante, ma perché ho esaminato il problema in un modo diverso. E quando parlo con qualcuno che ha un altro punto di vista, “è un modo per provare a mettere insieme il meglio di entrambi i mondi”.

Perché gli airbag uccidono più donne e bambini? Forse perché qualcuno non era nella stanza per dire: “Ehi, perché non lo testiamo sulle donne sul sedile anteriore?”. Ci sono molti problemi che hanno portato a effetti molti negativi per determinati gruppi di persone. Se si esaminano bene le situazioni si scopre che nessuno ha detto: “Ehi, hai pensato a questa cosa?”, che loro conoscono perché parlano dalla loro esperienza, dal loro ambiente e dalla loro comunità.

Come spera che la ricerca sull’intelligenza artificiale e sulla robotica si evolverà nel tempo? 

Se si pensa alla codifica e alla programmazione, praticamente tutti possono farlo. Ci sono così tante organizzazioni ora come Code.org. Le risorse e gli strumenti ci sono. In futuro, mi piacerebbe avere una conversazione con uno studente in cui chiedo: “Conosce l’intelligenza artificiale e l’apprendimento automatico?” e avere la seguente risposta: “Dottoressa Howard, li studio dalla terza elementare!”.  Sarebbe meraviglioso. 

Immagine di: Ayanna HowardPer gentile concessione di ACM

Related Posts
Total
0
Share