L’intelligenza artificiale che verrà usata nei sistemi di gestione dei clienti e degli utenti fa nascere una domanda: “Cosa serve per cambiare idea?”. Un quesito che sarà in primo piano nel futuro dell’etica dell’IA.
di Mark Esposito, Josh Entsminger, Terence Tse e Aurelie Jean
La capacità di un discorso di far cambiare idea è il cuore degli ideali democratici. Senza la capacità di una comunicazione chiara ed efficace non c’è democrazia, ma solo un guscio istituzionale. Ci sarebbe una democrazia perché la capacità di discutere, di essere convenienti e naturalmente di persuadere è l’essenza della risoluzione pacifica di interessi in competizione. Naturalmente, l’altra faccia della persuasione è la persuasione dubbia e malevola: convincere con false motivazioni, mentire o plasmare il pensiero attraverso la manipolazione cognitiva.
Con l’IA generativa è emersa la capacità di far progredire nuove interfacce utente con la capacità di persuadere per conto di chiunque possa configurare e permettersi il sistema o l’accesso a un modello. Con i sistemi di IA generativa di nicchia, data una base di conoscenza impostata privatamente, diverse verità competeranno in base alla loro capacità di generare risposte convincenti a un gruppo target. Un’IA per ogni ideologia.
È il rinascimento dell’ingegneria sociale assistita dall’intelligenza artificiale. Un rinascimento che porterà a una crescente competizione tra i tentativi di ingegneria sociale da parte di malintenzionati, per ridurre il costo della persuasione e delle truffe. In termini più filosofici, l’umanità sta affrontando una crisi di insicurezza epistemica.
Un primo punto della politica in quest’epoca è stato quello di garantire che gli esseri umani sappiano che stanno parlando con un robot. Per questo motivo, la recente legge europea sull’intelligenza artificiale imporrebbe un’etichettatura a qualsiasi contenuto che esprima che è stato realizzato o assistito da un’intelligenza artificiale. L’argomentazione è che se sappiamo che stiamo parlando con un agente artificiale, per quanto convincente, questo ci immunizza dall’essere ingannati. Ma porre l’accento sull’identificazione razionale che il nostro interlocutore è un’IA, usando le parole di altre persone, non sarà sufficiente, perché non tiene conto dei fondamenti di come la manipolazione e la persuasione avvengono nella vita quotidiana. In particolare, grazie all’esperimento ELIZA condotto negli anni ’60 al MIT, sappiamo che un essere umano può provare spontaneamente emozioni, empatia e sentimenti nei confronti di un’IA che presenta caratteristiche antropomorfiche (o tratti umani), ad esempio nell’aspetto fisico o negli elementi del linguaggio. Si tratta del noto effetto ELIZA, che può essere utilizzato a fini di manipolazione anche se la persona che interagisce con l’IA è a conoscenza di tale IA.
Tendiamo a sviluppare un forte attaccamento emotivo alle nostre convinzioni che, a sua volta, ostacola la nostra capacità di valutare obiettivamente le prove che contraddicono i nostri punti di vista. Spesso ci orientiamo verso la ricerca di informazioni che supportino le nostre convinzioni, piuttosto che metterle in discussione. L’obiettivo dovrebbe essere quello di impegnarsi in una persuasione riflessiva, in cui presentiamo gli argomenti e consideriamo attentamente le nostre convinzioni e i nostri valori per raggiungere un accordo o un disaccordo fondato.
Tuttavia, l’aspetto ancora più cruciale è che quando formiamo legami emotivi con gli altri, ciò può alterare la nostra prospettiva, ponendo le basi per una potenziale manipolazione. È interessante notare che gli esseri umani possono creare legami emotivi con i chatbot, anche quando questi non sono progettati per influenzare direttamente le emozioni o le relazioni. Ma quando i chat-bot sono creati intenzionalmente per favorire le connessioni emotive, emerge una dinamica completamente nuova, che dà origine a due problemi di lunga data negli affari umani: l’asimmetria del rischio e l’asimmetria della reciprocità.
Spesso ci impegniamo emotivamente in una convinzione, riducendo il modo in cui valutiamo le prove rispetto alle nostre convinzioni e prospettive. Preferiamo confermare e affermare, non sfidare. Cerchiamo prove di conferma. L’ideale è la persuasione riflessiva: fornire un argomento che, attraverso un’attenta considerazione delle nostre convinzioni e dei nostri valori, ci permetta di trovare le ragioni del nostro accordo o disaccordo.
Ma soprattutto, se instauriamo una relazione emotiva con un’altra persona, questa può influenzare la nostra prospettiva e costituire il fulcro di una potenziale manipolazione. Gli esseri umani instaurano relazioni emotive con i chat-bot, anche se il chat-bot non è progettato per influenzare una scelta emotiva o per influenzare le relazioni emotive. Ma se i chat-bot sono progettati per indurre relazioni emotive, si crea una dinamica fondamentalmente nuova che può essere vista in due vecchie questioni che riguardano gli affari umani: l’asimmetria del rischio e l’asimmetria della reciprocità.
L’asimmetria del rischio riguarda la differenza dei rischi fisici ed emotivi sostenuti da chi cerca di convincere e persuadere gli altri. Essere presenti, essere in gioco in un’interazione. L’asimmetria della persuasione riguarda la differenza di capacità di essere persuasi mentre si cerca di persuadere. L’asimmetria della persuasione è spesso condizionata dalle prospettive ideologiche delle persone, che si tratti di argomentare un punto o di sostenere un sistema di credenze.
Costruire e distribuire chat-bot persuasivi in una nuova generazione di “tecnologia persuasiva” significherebbe impiegare agenti che si trovano agli estremi delle asimmetrie di rischio e reciprocità. Questi agenti non correrebbero alcun rischio, né emotivo né fisico, nel tentativo di persuadere gli altri. La progettazione di sistemi reciproci dipende dall’organizzazione dell’intero sistema: una persona può convincere e cambiare tutte le risposte del ChatGPT? Oppure la persuasione all’interno di un’IA è limitata alla sua “istanza” di conversazione con l’utente, da interiorizzare per l’addestramento. Questo significa anche che la persuasione attiva sul momento potrebbe essere inattuabile: potrebbero concedere e accettare, ma la persuasione non riguarda l’accordo momentaneo. Si tratta della capacità di influenzare un cambiamento duraturo delle convinzioni. Altrimenti, la fallacia di un dibattito con un robot produrrà solo un sistema su larga scala di false conversazioni e dissonanza cognitiva sistemica all’interno di un agente, per mantenere molteplici punti di vista contrastanti per ogni persona.
Questi principi servono come linee guida, ma puntano verso una realtà fondamentale: non siamo preparati alla diffusione di capacità per sistemi di IA persuasivi. La mitigazione dei rischi dell’IA persuasiva è già stata identificata come un ambito di consapevolezza politica e di rischio da OpenAI, tra gli altri attori. Ma questa consapevolezza non si estende a un quadro di rischio completo.
Una società non può essere efficacemente vaccinata contro l’IA persuasiva. Per farlo, significherebbe che ogni persona non è suscettibile a tali agenti. Un tentativo di controllare ed etichettare le interfacce significherà che gli attori prenderanno gli input e li trasferiranno in nuovi domini, come ad esempio copiare ChatGPT nella posta elettronica. Quindi, il tracciamento si estenderebbe alla consapevolezza dell’attività dell’utente su tali sistemi di IA generativa, aumentando la responsabilità del proprietario del sistema per il tracciamento e la valutazione delle conversioni. Ma l’IA persuasiva non deve necessariamente essere generativa.
Una moltitudine di attori, che comprende un ampio spettro di organizzazioni, individui ed entità, è intrinsecamente motivata a rafforzare le proprie capacità di persuasione nel perseguimento incessante dei propri obiettivi. Questa motivazione profonda è sottolineata dall’impegno attivo degli attori statali nel regno della propaganda computazionale, dove l’arte di manipolare le informazioni e l’opinione pubblica viene impiegata per promuovere gli interessi e le agende nazionali.
Parallelamente, il mercato dell’ad-tech ha visto l’evoluzione della persuasione computazionale come modello di business fiorente e redditizio. Questo settore fiorente non solo esemplifica il riconoscimento da parte del mercato del potere di trasformazione delle tecnologie persuasive, ma sottolinea anche la profonda influenza che esse possono esercitare nel modellare il comportamento dei consumatori, nel guidare le vendite e nel raggiungere gli obiettivi commerciali.
L’allineamento di questi diversi attori verso il miglioramento della loro capacità di persuasione rispecchia il panorama in continua espansione dell’influenza guidata dalla tecnologia, un panorama che presenta sia opportunità che sfide per le più ampie sfere socio-politiche ed economiche.
Tutti gli attori, comprese le entità statali e commerciali, sono interessati a migliorare le proprie capacità di persuasione per il proprio tornaconto. Gli attori statali si impegnano attivamente nella propaganda computazionale, mentre l’industria dell’ad-tech persegue la persuasione computazionale come modello commerciale redditizio.
In questo panorama in evoluzione, in cui la persuasione diventa automatizzata e sottile, è fondamentale riconoscere l’urgente necessità di un quadro etico e normativo completo per affrontare le sfide poste dall’IA persuasiva.
Gli autori:
Mark Esposito è Ordinario di Economia presso Hult International Business School e Docente di Strategia alla Harvard University. Co-fondatore di Nexus FrontierTech;
Josh Entsminger è Dottorando in Economia Politica presso UCL’s Institute for Innovation and Public Purpose e impresario di economia circolare;
Terence Tse è Ordinario di Finanza presso Hult International Business School. Direttore Esecutivo e Co-fondatore di Nexus FrontierTech;
Aurelie Jean è Scienziata informatica e autrice di diversi bestseller. Docente a MIT Executive Education e fondatrice di SilicoVeritas.