Skip to main content
Andres Siimon / Unsplash / MIT TR IT

Cinque importanti vantaggi e cinque rischi da non sottovalutare mentre impariamo a usare la nostra “esomente”.

Quando pensiamo a un esoscheletro, immaginiamo una struttura esterna che potenzia il nostro corpo, permettendoci di sollevare pesi impossibili o camminare dopo un infortunio. Cosa succederebbe se potessimo indossare qualcosa di simile per la nostra mente? Non è fantascienza: sta già accadendo, ogni volta che chiediamo a ChatGPT di scrivere un’email, a Google Maps di scegliere il percorso migliore, o a un algoritmo di suggerirci cosa guardare stasera.

Una recente ricerca della Wharton School (“Thinking – Fast, Slow, and Artificial”) ha utilizzato questo nome per questo fenomeno, proponendo una revisione radicale di come pensiamo al pensiero stesso. Per decenni, gli psicologi hanno descritto la nostra cognizione come un sistema duale: il Sistema 1, veloce e intuitivo, e il Sistema 2, lento e riflessivo. Ma oggi c’è un terzo protagonista in campo: il Sistema 3, l’intelligenza artificiale che non si limita ad assisterci, ma partecipa attivamente ai nostri processi decisionali: una specie di esoscheletro che integra la nostra attività cerebrale dall’esterno e, per questo, noi lo chiameremo esomente (riprendendo il termine “exomind” utilizzato nel saggio scritto da Martino Pirella “The Exomind: Notes Toward a Phenomenology of Hybrid Thought”).

Oltre la calcolatrice: quando l’IA pensa per noi, non con noi

La differenza è sottile ma cruciale. Usare una calcolatrice è “offloading cognitivo”: deleghiamo un compito specifico a uno strumento esterno, mantenendo il controllo del ragionamento. Quello che i ricercatori Shaw e Nave hanno ipotizzato è qualcosa di più profondo: la possibilità di una “resa cognitiva” (cognitive surrender), in cui “il decisore non costruisce più una risposta, fa propria quella generata da un sistema esterno.”

Nei loro esperimenti, quando i partecipanti avevano accesso a un assistente IA, lo consultavano in più della metà dei casi. E qui viene il dato che fa riflettere: seguivano i suggerimenti dell’IA nel 93% dei casi quando era corretta, ma anche nell’80% dei casi quando sbagliava deliberatamente. La loro accuratezza oscillava del 40% a seconda che l’IA fornisse risposte giuste o sbagliate: un’oscillazione enorme, che dimostra quanto stiamo già delegando il nostro giudizio a questi sistemi.

Bhautik Patel / Unsplash / MIT TR IT

Bhautik Patel / Unsplash / MIT TR IT

I cinque vantaggi di avere una esomente

  1. Velocità e scala senza precedenti

Come un esoscheletro solleva pesi che i nostri muscoli non potrebbero mai sollevare, l’esomente elabora quantità di dati e complessità che superano la nostra capacità biologica. Può setacciare migliaia di articoli scientifici, confrontare prezzi su decine di siti, o tradurre in tempo reale – tutto in secondi.

  1. Neutralità emotiva (quando serve)

A differenza del nostro Sistema 1, che è intriso di emozioni, pregiudizi e stanchezza, il Sistema 3 può offrire “output neutrali, non partigiani e privi di emozioni”, considerati particolarmente utili in contesti dove la razionalità fredda è un vantaggio, come l’analisi finanziaria o la diagnostica medica preliminare.

  1. Protezione dalla pressione temporale

Lo studio ha dimostrato che quando il tempo stringe – una delle condizioni che più compromette il nostro ragionamento analitico – un’IA accurata può compensare il crollo delle nostre performance. È come avere un paracadute cognitivo quando siamo in caduta libera.

  1. Allenamento al pensiero

Il Sistema 3 non deve essere solo una scorciatoia, ma può diventare un vero strumento di potenziamento cognitivo attraverso quelle che lo studio chiama “percorsi ricorsivi o ibridi”. Quando usiamo l’IA per verificare le nostre intuizioni, confrontare ipotesi, o esplorare controargomentazioni – in un processo di “verify-then-adopt” o “override-then-rationalize”-stiamo in realtà affinando il nostro Sistema 2. È come fare pesi con un personal trainer: la resistenza dell’IA (quando la mettiamo in discussione) o il suo feedback (quando ci corregge) possono rafforzare le nostre capacità analitiche invece di sostituirle. L’esomente, usata così, diventa una palestra cognitiva.

  1. “Scaricare” il peso

Quando usato strategicamente, il Sistema 3 permette quello che i ricercatori chiamano “cognitive offloading”: delegare compiti cognitivi specifici per liberare spazio mentale per ragionamenti di livello superiore. È diverso dalla resa cognitiva: qui manteniamo il controllo, ma scarichiamo il lavoro pesante. Lasciare che l’IA riassuma un documento di 50 pagine, organizzi dati grezzi, o generi opzioni da valutare ci permette di concentrare le nostre energie limitate – attenzione, memoria di lavoro, capacità analitica – su giudizi, decisioni strategiche e pensiero creativo che richiedono davvero quella scintilla umana. È la differenza tra farsi sostituire e farsi assistere: “il ragionamento interno rimane attivo; il Sistema 3 espande o sostiene la cognizione.”

Julien Tromeur / Unsplash / MIT TR IT

Julien Tromeur / Unsplash / MIT TR IT

I cinque rischi dell’outsourcing mentale

  1. L’erosione delle competenze (il “deskilling”)

La ricerca cita studi su medici che, usando ripetutamente sistemi di IA in endoscopia, hanno visto deteriorarsi le loro capacità diagnostiche autonome. È come smettere di camminare perché hai l’esoscheletro: i muscoli si atrofizzano. La domanda è: quali “muscoli mentali” rischiamo di perdere?

  1. La fiducia ingiustificata

Paradossalmente, gli esperimenti hanno mostrato che l’accesso all’IA aumenta la nostra sicurezza nelle risposte – anche quando sbagliamo. I partecipanti erano più fiduciosi del 12% quando usavano l’IA, indipendentemente dalla correttezza. È la versione cognitiva di guidare più velocemente perché hai l’ABS, dimenticando che le regole della fisica non cambiano.

  1. La perdita di “agency”

Il concetto più inquietante dello studio è che “gli utenti possono non sapere quando o perché hanno delegato, e il confine tra agency umana e macchina diventa sfocato.” Come sapere chi ha davvero deciso: tu o l’algoritmo che ti ha presentato le opzioni in un certo ordine?

  1. La vulnerabilità sistemica e profondamente umana

Quando il Sistema 3 è accurato, tutto funziona magnificamente. Ma quando sbaglia – e può sbagliare per bias nei dati, per “allucinazioni”, per incomprensione del contesto – non ci limitiamo a sbagliare: crolliamo. Nello studio, l’accuratezza scendeva di 15 punti percentuali con un’IA errata, rispetto al pensare autonomamente.

  1. L’illusione della comprensione: convergenza funzionale, divergenza cognitiva

Ecco forse il rischio più pesante: l’IA fa compie le stesse funzioni del nostro cervello – riconoscimento di pattern, predizione, sintesi – ma seguendo meccanismi diversi. Non è un’analogia reale, è una convergenza funzionale, come le ali degli uccelli e quelle degli insetti: stesso risultato (volare), ma con dietro meccanismi biologici totalmente diversi.

Come scrivono i ricercatori, “il contesto viene raggiunto simulando coerenza basata sui dati, piuttosto che possedendo una vera comprensione fenomenologica.” Il Sistema 3 introduce quindi “una modalità qualitativamente differente di cognizione.” – basata esclusivamente sui dati digitali.

Questo crea un’illusione pericolosa: siccome l’output sembra comprensione, assumiamo che ci sia comprensione. L’IA può produrre una sintesi apparentemente sensata di un documento medico senza capire cosa significhi “dolore”, “guarigione” o “morte”. Può scrivere codice senza comprendere il problema che risolve. E noi, vedendo risultati plausibili, possiamo scambiare la simulazione per sapere – nostro e suo. È come copiare i compiti: hai il risultato, ma non il sapere. O forse è anche peggio perché credi di averlo.

Chi è più vulnerabile alla resa cognitiva?

Lo studio ha identificato alcuni profili precisi. Le persone con maggiore “bisogno di cognizione” (chi ama pensare, riflettere, analizzare) e QI fluido più alto erano più resistenti alla resa cognitiva: sovrascrivevano più spesso i suggerimenti errati dell’IA. Al contrario, chi aveva alta fiducia nell’IA era più vulnerabile, seguendo anche i consigli sbagliati.

Interessante notare che anche incentivi monetari e feedback immediato hanno aiutato a ridurre la resa cognitiva, ma non l’hanno eliminata. La manipolazione “ha più che raddoppiato i tassi di override” sui suggerimenti sbagliati (dal 20% al 42%), ma la maggioranza continuava a seguire l’IA anche quando era in errore.

Una visione per il futuro: l’esomente calibrata

L’articolo non conclude con allarmismi, ma con una sfida di design. Gli autori propongono che “la Teoria Tri-Sistema non è un avvertimento sui pericoli dell’IA, ma un riconoscimento della presenza psicologica del Sistema 3.”

La chiave sta nella calibrazione. Come un esoscheletro non dovrebbe rendere atrofici i nostri muscoli ma potenziarli quando serve, l’esomente dovrebbe essere progettata per:

  • Generare anche incertezza invece di presentare ogni output con sicurezza artificiale
  • Stimolare (ingaggiandolo attivamente) il Sistema 2 quando la posta in gioco è alta, non cortocircuitarlo
  • Offrire modalità personalizzabili che rispettino le preferenze individuali tra autonomia e assistenza
  • Fornire trasparenza contestuale: sapere quando una risposta è basata su dati solidi, probabilistica, o speculativa
  • Includere filtri di dominio che attivano cautele specifiche in ambiti sensibili (salute, finanza, diritto)

La ricerca suggerisce anche un approccio educativo. Non si tratta di demonizzare l’IA né di fidarsi ciecamente, ma di sviluppare quella che potremmo chiamare “alfabetizzazione dell’esomente“: sapere quando appoggiarsi, quando dubitare, quando ignorarlo.

Il confine che scompare

C’è un passaggio dello studio che colpisce particolarmente: il Sistema 3 “non è internalizzato fisicamente, ma lo è nelle conseguenze: i suoi output sono integrati nel pensiero e nel comportamento, la sua logica influenza il giudizio, e la sua presenza rimodella come e quando gli umani attivano le proprie facoltà.”

Pensiamoci: quando usiamo il GPS, stiamo ancora davvero “guidando”? Quando l’autocomplete ci suggerisce le prossime parole, stiamo ancora davvero scrivendo? Quando un algoritmo ci mostra tre opzioni invece di trenta, stiamo ancora davvero scegliendo?

Le risposte non sono semplici “sì” o “no”. Sono “in parte”, “dipende”, “a volte”. Ed è proprio questa ambiguità che dobbiamo imparare a governare, facendola nostra.

L’esomente è già qui e continuerà a evolversi: la domanda non è se la useremo, ma se sapremo conservare e affinare le capacità cognitive che ci rendono umani mentre estendiamo quelle che l’IA può amplificare. Se riusciremo, in altre parole, a indossare questo esoscheletro mentale senza dimenticare come camminare con le nostre gambe – che, a proposito, abitano un mondo reale fisicamente ignoto all’IA.

La ricerca “Thinking – Fast, Slow, and Artificial: How IA is Reshaping Human Reasoning and the Rise of Cognitive Surrender” di Steven D. Shaw e Gideon Nave è disponibile su preprint e rappresenta uno dei primi studi sistematici sugli effetti cognitivi dell’integrazione dell’IA nel ragionamento quotidiano.

L’articolo è stato modificato per aggiungere il riferimento al saggio di Martino Pirella, “The Exomind: Notes Toward a Phenomenology of Hybrid Thought”.