di Alessandro Lanteri, Massimiliano L. Cappuccio, Jai C. Galliott, Friederike Eyssel
Uno dei più grandi limiti all’introduzione delle nuove tecnologie è la fiducia. La tolleranza, combinata con l’accettazione e la fiducia, fornisce un approccio più olistico alla comprensione e alla gestione dell’aspetto umano dell’adozione di tecnologie autonome.
Ted Kaczynski, il famigerato criminale anti-tecnologico noto come Unabomber, è tornato a far parlare di sé. Nel giugno 2023 è stato infatti trovato morto nella sua cella in North Carolina Probabilmente si è suicidato. Ma anche prima della sua morte e delle analisi sul suo lascito criminale, le sue idee sembravano aver guadagnato credito. La sua sfiducia generalizzata e cospiratoria verso tutto ciò che è tecnologico continua a risuonare.
In realtà, le sue idee non sono mai scomparse. Quando nel 1995 l’FBI diede al “Washington Post” l’autorizzazione a pubblicare il suo manifesto, pensava che pochi avrebbero voluto leggerlo (Kaczynski aveva minacciato di far esplodere una bomba se il documento non fosse stato pubblicato, e la decisione di offrirlo ai lettori contribuì alla sua cattura). Il manifesto fu molto letto e in seguito sarebbe diventato un bestseller. Mentre pochi difenderebbero le sue azioni, un numero sorprendente di scettici della tecnologia ha un certo grado di simpatia per le sue idee e suggerisce che le sue preoccupazioni sull’impatto della tecnologia sull’umanità potrebbero non essere del tutto infondate.
La continua risonanza delle idee di Kaczynski è un potente promemoria della necessità di affrontare le narrazioni più ampie che riguardano la visione della tecnologia da parte delle persone, in particolare il senso di alienazione molto reale provato da molti. Per contro, l’analisi tradizionale della disponibilità degli utenti ad adottare l’intelligenza artificiale si è concentrata in modo più ristretto sull’interazione effettiva tra persone e agenti. In particolare, i ricercatori nel campo dell’HAI (Human-Agent Interaction) hanno valutato la duplice questione dell’accettazione e della fiducia, sperando di valutare se le aspettative, i bisogni e le preferenze degli utenti siano soddisfatte o meno dalle loro interazioni con gli agenti.
Queste metriche sono utili, ma solo fino a un certo punto. Quando si guarda da vicino a ciò che effettivamente mina l’apertura all’adozione dell’IA, e a come questa possa poi tradursi in resistenza attiva e persino in sabotaggio, si arriva a un insieme più ampio di questioni indipendenti dall’interazione reale con gli agenti. Gli utenti non devono necessariamente aderire all’ideologia di Kaczynski per condividere alcuni dei suoi sentimenti di sfiducia e alienazione nei confronti della tecnologia.
Per questo motivo, crediamo sia giusto introdurre anche una terza metrica, la tolleranza, che cattura un insieme più ampio di atteggiamenti verso la tecnologia e il suo effetto sul lavoro e sulla società. L’idea di tolleranza va oltre gli stretti confini dell’interazione agente-utente per valutare i potenziali sentimenti di alienazionedi un individuo che possono sorgere nel contesto delle nuove tecnologie. L’avversione e la sfiducia profonda nei confronti della tecnologia possono minare l’adozione da parte degli utenti anche quando la fiducia e l’accettazione sono elevate. Questo insieme più ampio di questioni riguardanti la tecnologia e l’umanità è del tutto indipendente dall’interazione discreta uomo-agente. Valutare l’atteggiamento verso le tecnologie autonome basandosi esclusivamente sull’esperienza dell’utente non è chiaramente sufficiente.
I limiti dell’accettazione e della fiducia
L’accettazione è una valutazione basata su fattori come l’utilità e la facilità d’uso percepite. Questa nozione è radicata nel Modello di Valutazione della Tecnologia (TAM) introdotto per la prima volta nel 1989. La fiducia si riferisce a un atteggiamento in situazioni in cui la decisione di adottare una determinata tecnologia comporta un certo grado di vulnerabilità e implica il grado di fiducia nel fatto che, ad esempio, un robot agirà nell’interesse dell’uomo quando quest’ultimo ha qualcosa da perdere.
Il modello TAM è stato notevolmente modificato nei decenni successivi. Le ulteriori iterazioni si sono evolute nella più ampia Teoria unificata dell’accettazione e dell’uso della tecnologia (UTAUT). Tuttavia, riconoscendo che la prospettiva dell’intelligenza artificiale introduce una serie di domande più ampie nell’equazione, alcuni suggeriscono di utilizzare questi modelli tradizionali solo per studiare le tecnologie non intelligenti. Recentemente è stato proposto un nuovo modello, l’AI Device Use Acceptance Model (AIDUA), ma questo nuovo modello si basa ancora quasi esclusivamente sullo studio dell’esperienza dell’utente.
Una ricerca del 2018 sulla tolleranza dei soldati nei confronti dei sistemi autonomi nelle forze armate ha sostenuto la necessità di comprendere la fiducia nella robotica e nell’automazione in un contesto molto più ampio, che comprende questioni sociali e psicologiche più late, le dinamiche di potere di un determinato luogo di lavoro e la misura in cui l’automazione potrebbe influire (o essere percepita come influente) sull’autonomia e sul benessere generale di un individuo. Uno studio successivo ha esaminato il rischio potenziale di non conformità da parte del personale della difesa a causa di atteggiamenti nevrotici e forse paranoici nei confronti di sistemi altamente automatizzati e autonomi. Questo studio ha fatto riferimento in particolare al manifesto di Kaczynski come esempio estremo di bassa tolleranza per gli agenti.
Il costo di ignorare la tolleranza
Ipotizziamo uno scenario ipotetico ispirato in parte a eventi reali e documentati. Immaginiamo che in una base aerea venga introdotto un bot logistico per liberare i membri dell’equipaggio di terra dall’onere di trasportare componenti ingombranti da un lato all’altro di un hangar molto lungo. I membri dell’equipaggio trovano il bot utile e affidabile. Apprezzano l’interfaccia amichevole e inizialmente hanno un atteggiamento di simpatia nei confronti del bot, o al peggio di indifferenza. Però, dopo alcune settimane di quella che da lontano sembra un’implementazione impeccabile del nuovo sistema, i supervisori riferiscono che il personale dell’hangar ha quasi completamente abbandonato l’uso del bot. In un’occasione, alcuni membri dell’equipaggio hanno tentato di sabotarlo.
Perché questo scollamento tra l’apparente alto grado di accettazione e fiducia in superficie e una più profonda mancanza di tolleranza?
Supponiamo che, in questo scenario immaginario, ulteriori indagini rivelino che alcuni membri dell’equipaggio, pur non disprezzando o diffidando del bot in sé, hanno scoperto che la sua introduzione ha innescato ansie e tensioni latenti nell’ambiente di lavoro. Sebbene non vi fosse alcun piano di sostituzione dei lavoratori, né alcuna indicazione dell’esistenza di un tale piano, i membri dell’equipaggio si sono progressivamente preoccupati della possibilità di essere licenziati se altri bot fossero stati impiegati nell’hangar. Questa potenziale minaccia al loro sostentamento e al loro senso di autonomia ha alterato la percezione che i membri dell’equipaggio hanno del loro ruolo e del loro status nell’hangar e, alla fine, ha aggravato le tensioni latenti tra due squadre dislocate agli estremi opposti. I membri dell’equipaggio hanno ammesso che il bot non ha mai smesso di essere utile ed efficiente. Eppure, alla fine, molti di loro si sono rivoltati contro di esso, alcuni in modo violento.
I luddisti erano davvero contrari alla tecnologia?
I luddisti erano un gruppo di operai e lavoratori tessili britannici che, all’inizio del XIX secolo, si opponevano al modo in cui i proprietari delle fabbriche stavano impiegando una nuova generazione di telai per maglieria meccanizzati (il nome deriva da Ned Ludd, forse un giovane apprendista che aveva distrutto un impianto tessile nel 1779. Come Robin Hood, anch’egli originario di Nottingham, probabilmente non è mai esistito). Sono stati oggetto di caricature in rappresentazioni popolari e il termine è stato resuscitato come descrizione generale per i tecnofobi o per i tecno-scettici. Ted Kaczynski è stato definito da alcuni un neo-luddista. Ma le loro preoccupazioni erano reali e due libri recenti cercano di mettere le cose in chiaro in un contesto contemporaneo in cui stiamo vivendo le nostre accese battaglie sulla tecnologia.
È stata l’industria tessile a guidare la prima metà della Rivoluzione industriale. Ma all’inizio del 1800 il settore era in difficoltà, in parte a causa di fattori esterni come le guerre napoleoniche. La disoccupazione e l’inflazione erano entrambe in aumento. I proprietari delle fabbriche volevano ridurre i costi adottando macchine che potessero essere gestite da operai non specializzati a basso costo. In precedenza, gli operai tessili erano stati artigiani qualificati che avevano impiegato anni per imparare il loro mestiere. Quando gli sforzi per ottenere salari e condizioni di lavoro migliori furono respinti, alcuni passarono alla violenza. Secondo un resoconto, la prima incursione in una fabbrica avvenne dopo che una protesta pacifica era stata repressa con la violenza.
In Blood in the Machinedi Brian Merchant, i luddisti non sono rappresentati come tecnofobi, ma come lavoratori ansiosi che sfogavano le loro frustrazioni sulle macchine come ultima risorsa e che vedevano le macchine come un simbolo e non come il nemico. Come l’equipaggio dell’hangar nel nostro scenario precedente, era un insieme più ampio di ansie legate alle loro prospettive di lavoro future a motivare la loro resistenza alla tecnologia, non la tecnologia stessa.
Diverse parti interessate, diverse prospettive
Non è necessario considerare i luddisti come eroi per riconoscere che le diverse parti interessate sul posto di lavoro hanno una visione diversa dell’adozione delle nuove tecnologie. Il modello di tolleranza può aiutare a far luce su questi punti di vista divergenti e sul modo in cui è probabile che si manifestino.
I responsabili delle decisioni e i proprietari tendono a valutare le nuove tecnologie, comprese l’intelligenza artificiale e la robotica, in base a valori quali l’efficienza, l’affidabilità e la convenienza. Anche la ricerca tradizionale sulle HAI si è concentrata su queste variabili, creando un punto cieco che non tiene conto dei fattori che determinano la tolleranza (o l’intolleranza).
I dipendenti e gli utenti, invece, hanno una prospettiva diversa. Potrebbero essere aperti a un’argomentazione basata su efficienza, affidabilità e convenienza. In un certo senso, potrebbero anche essere conquistati da questa argomentazione. Ma alla fine, l’accettazione e la fiducia possono essere superate da questioni legate alla sicurezza del lavoro, all’autonomia e alla natura impersonale dell’IA. Il modello della Tolleranza porta nella discussione un insieme più ampio di valori e percezioni, che vanno dall’ansia e dall’ambivalenza nei confronti dell’introduzione di una nuova tecnologia, alla vera e propria resistenza e persino all’ostilità.
Narrazioni più ampie su IA, robotica e tecnologia
Non possiamo semplicemente liquidare le ansie di dipendenti e utenti come “irrazionali” quando la narrazione più ampia dei media e della cultura popolare sulle nuove tecnologie è così poco chiara e confusa. Nel 2013, ad esempio, alcuni ricercatori di Oxford hanno pubblicato una stima secondo cui ben il 47% di tutti i posti di lavoro statunitensi era “a rischio” di automazione nei successivi dieci o venti anni. Seguì una serie di titoli apocalittici sulla sostituzione degli esseri umani da parte dei robot. Nello stesso anno, Watson di IBM aveva trionfato a “Jeopardy!” sui concorrenti umani. L’ansia per la tecnologia era comprensibilmente alta.
Ancora oggi, i titoli dei giornali che parlano di IA che sostituisce gli esseri umani sono perfetti per richiamare click, ma pessimi nel caratterizzare la realtà con le necessarie sfumature. A marzo di quest’anno, Goldman Sachs ha stimato che i più diffusi strumenti di IA potrebbero automatizzare l’equivalente di 300 milioni di posti di lavoro a tempo pieno. Ma questo non significa che 300 milioni di posti di lavoro stiano improvvisamente scomparendo; la parola chiave è “equivalente”. La realtà (come riferito dai ricercatori di OpenAI in collaborazione con l’Università della Pennsylvania) è che l’80% della forza lavoro potrebbe veder compromesso almeno il 10% delle proprie mansioni. Il modo esatto in cui ciò avverrà è oggetto di discussione. Come afferma David Autor del MIT: “Interessato può significare migliorato, peggiorato, scomparso, raddoppiato”.
Questo per quanto riguarda le notizie e il mondo della saggistica. Il mondo della narrativa e dei film continua a sfornare storie simili a Terminator, in cui le macchine conquistano il mondo. Le storie possono anche essere inventate ed esagerate. Ma l’ansia è reale. Mentre l’accettazione e la fiducia si formano in base all’interazione reale con gli agenti intelligenti, la tolleranza si forma in base alle convinzioni. I decisori devono tenerne conto.
Passi da compiere per i decisori
Anche quando l’accettazione e la fiducia sono elevate, una mancanza di tolleranza (o peggio, un’intolleranza attiva) può compromettere completamente l’adozione della tecnologia AI. Piuttosto che liquidare le ansie legate alle tecnologie intelligenti come irrazionali o neoluddiste, i decisori dovrebbero utilizzare la lente del modello di tolleranza per affrontare in modo proattivo queste preoccupazioni.
Tra le misure che i decisori possono adottare vi sono:
- Valutare i livelli di tolleranza dei dipendenti. Conducete indagini o workshop per capire la tolleranza dei vostri dipendenti nei confronti delle tecnologie autonome. Questo può aiutarvi ad anticipare e gestire eventuali resistenze.
- Fornire formazione e assistenza. Offrire sessioni di formazione e assistenza continua per aumentare la familiarità e il comfort dei dipendenti con le nuove tecnologie.
- Promuovere la trasparenza. Comunicare chiaramente il motivo per cui si sta implementando una nuova tecnologia e come questa possa portare benefici sia all’azienda che ai dipendenti.
- Implementare gradualmente. Considerare l’introduzione di cambiamenti graduali per consentire ai dipendenti di adattarsi e aumentare la loro tolleranza nel tempo.
- Coinvolgere i dipendenti nel processo. Lasciate che i dipendenti abbiano voce in capitolo nel processo decisionale. Questo può aumentare il loro senso di controllo e, quindi, la loro tolleranza.
- Affrontare le preoccupazioni in modo proattivo. Se i dipendenti esprimono preoccupazioni circa il potenziale impatto delle nuove tecnologie sul loro ruolo, affrontatele in modo aperto e onesto. Discutete delle potenziali opportunità di riqualificazione e rassicurateli sul fatto che l’obiettivo non è quello di sostituirli, ma di migliorare le loro capacità.
In conclusione, la tolleranza, combinata con l’accettazione e la fiducia, fornisce un approccio più olistico alla comprensione e alla gestione dell’aspetto umano dell’adozione di tecnologie autonome. Questo approccio più sfumato potrebbe aprire la strada a implementazioni tecnologiche di maggior successo in futuro. Il modello della tolleranza non vuole sostituire i modelli esistenti di adozione delle tecnologie, ma integrarli e renderli più completi.
Crediti immagine di copertina: StableDiffusionXL on Poe (2023)