
Ogni tecnologia trasformativa costringe l’umanità a un compromesso che al momento non comprendiamo appieno.
Barattiamo capacità note in cambio di possibilità ignote, spesso scoprendo solo decenni dopo cosa abbiamo veramente perso e guadagnato. Oggi, mentre l’intelligenza artificiale rimodella il nostro modo di pensare e decidere, ci troviamo nel mezzo di quello che è forse il più profondo compromesso cognitivo della storia umana.
Proprio mentre scriviamo, oltre venti ricercatori hanno appena lasciato Meta, OpenAI e Google DeepMind per fondare Periodic Labs, rinunciando a decine o centinaia di milioni di dollari. La loro scommessa? Che l’intelligenza artificiale non debba semplicemente ‘pensare per noi’, ma imparare a fare scienza attraverso esperimenti fisici nel mondo reale, non solo analizzando testi. Come ha detto Liam Fedus, uno dei fondatori: ‘L’obiettivo principale dell’AI non è automatizzare il lavoro d’ufficio. L’obiettivo principale è accelerare la scienza.’
Il grande baratto
L’ansia è familiare. I libri avrebbero distrutto la nostra memoria. Le mappe avrebbero distrutto il nostro senso dell’orientamento. Le auto e gli aerei ci avrebbero disconnesso dall’ambiente circostante. Internet ci avrebbe reso superficiali. Ogni previsione si è rivelata parzialmente vera e al tempo stesso irrilevante per l’incedere del progresso.
Quando la macchina da stampa di Johannes Gutenberg iniziò a produrre libri in serie nel XV secolo, cambiò radicalmente la cognizione umana. Prima della stampa, la memoria non era solo un deposito: era il meccanismo primario di apprendimento, ragionamento e autorità intellettuale. Gli studiosi erano biblioteche viventi, le loro menti vasti depositi di conoscenza interiorizzata a cui potevano accedere istantaneamente grazie a tecniche sofisticate che abilitavano riferimenti incrociati e potenti ricombinazioni. La memoria determinava non solo ciò che si sapeva, ma anche il proprio posto nella gerarchia intellettuale della società.
Forse non tutti sanno che il primo dibattito sulla “memoria artificiale” si ebbe ai tempi dell’antica Roma, quando il moderno Cicerone (che doveva memorizzare un sacco di orazioni) difese un tecnica di archiviazione mentale a base topologica, detta ‘I Palazzi della Memoria’. Si trattava sempre di tenere le cose in testa, ma il fatto di sostituire il ‘naturale’ e ‘profondo’ assorbimento per ripetizione a favore di una ‘tecnica’ accelerata e molto più efficace, sollevò un polverone e venne inizialmente bandito come innaturale, artificiale, superficiale. Per Platone ed Aristotele la memoria era una funzione dell’anima, fondamentale per il pensiero e l’immaginazione. La memoria permetteva di richiamare esperienze e conoscenze, agendo come ponte fra l’esperienza terrena (anima inferiore) e la reminiscenza delle idee (anima superiore). Non è così, in fondo? La memoria artificiale avrebbe messo in pericolo la nostra stessa anima.
Qualsiasi assalto alle nostre capacità mentali è stato – insomma – da sempre causa di grande apprensione.
Torniamo a Gutenberg: la rivoluzione della stampa non ha quindi semplicemente fornito spazio di archiviazione esterno. Ha proseguito – avrebbe protestato Aristotele – l’alienante opera di riprogrammazione del nostro modo di pensare: la transizione da una conoscenza interiorizzata e incarnata, a una conoscenza esteriorizzata e referenziata. La memorizzazione profonda ha lasciato il posto alla conoscenza di dove trovare le informazioni (una trasformazione d’altra parte già innescata dai ‘Palazzi della Memoria’). Il cambiamento si è radicalizzato, ed è diventato irreversibile. Non siamo davvero in grado di memorizzare come i nostri antenati. Quella capacità, affinata nel corso dei millenni e nobilitata dagli antichi (Mnemosine, Musa della Memoria, era per i greci la madre-matrice di tutte le Muse), è in gran parte scomparsa dalla nostra specie.

Gemini/MIT TR IT
Google Maps offre un esempio più recente. Prima del GPS, la navigazione richiedeva una conoscenza approfondita della geografia, dei punti di riferimento e delle relazioni spaziali. I tassisti di Londra hanno trascorso anni a memorizzare “The Knowledge” (così è chiamato il difficilissimo test per diventare tassista a Londra): ogni strada, scorciatoia e percorso della città. Il loro cervello è cambiato fisicamente, sviluppando ippocampi più grandi per accogliere questa competenza spaziale. Gli autisti di ride-sharing di oggi seguono invece un puntino blu su uno schermo. Possono raggiungere qualsiasi destinazione senza comprendere il territorio che attraversano.
In ogni caso, abbiamo barattato la profondità con l’accessibilità. I libri hanno democratizzato la conoscenza, ma hanno diminuito la memoria. Le mappe hanno democratizzato la navigazione, ma hanno atrofizzato la nostra intelligenza spaziale. Gli aerei hanno reso accessibili luoghi lontani, isolandoci dal viaggio stesso.
AI: il compromesso più profondo di sempre?
L’intelligenza artificiale rappresenta un tipo di baratto qualitativamente non troppo diverso. Si dice che sia la prima ad aver esternalizzato i nostri processi cognitivi fondamentali. Si dice che non stia cambiando solo il modo in cui accediamo alle informazioni, ma anche il modo in cui le elaboriamo. Vero, ma non è la prima volta nella storia. La memoria è stata ed è tuttora (quella che ci è rimasta) una capacità cognitiva fondamentale, così come la percezione spaziale e la memoria visuo-spaziale. Siamo sopravvissuti, anzi, siamo evoluti come sistema, società, collettività. L’esternalizzazione apparentemente funziona.
Io ho sottomano un esempio molto concreto: un app che in pochi minuti sviluppa e valida un modello di business, in grado di analizzarne il potenziale di mercato, identificarne segmenti di clientela e valutarne quasi istantaneamente il panorama competitivo, un lavoro che tradizionalmente richiedeva mesi di ricerca e analisi. Gli utenti ottengono insight strategici sofisticati senza sviluppare un pensiero strategico sofisticato. Accedono al risultato di ragionamenti esperti, e flussi di lavoro esperti, senza acquisire la capacità di ragionamento ed azione esperti.
Allo stesso modo, GitHub Copilot e altri assistenti di programmazione AI scrivono codice che funziona, ma i nuovi sviluppatori che li usano fin dall’inizio potrebbero non comprendere mai veramente i pattern architetturali sottostanti.
Questo ci spaventa. Stiamo democratizzando non solo l’accesso alla conoscenza (come hanno fatto libri e internet) o l’accesso alla conoscenza specialistica (come hanno fatto i motori di ricerca), ma l’accesso al pensiero e all’azione di livello esperto. Chiunque può ora ‘svolgere’ un lavoro cognitivo che in precedenza richiedeva anni di formazione ed esperienza.
Ma ecco forse il cuore delle nostre angosce: accedere al pensiero esperto non equivale ad acquisire capacità di pensiero esperto. Proprio come accedere alla conoscenza attraverso i libri non equivale ad acquisire conoscenza (e tantomeno ad esserne intrisi, attraverso la memorizzazione), ottenere analisi generate dall’intelligenza artificiale non equivale necessariamente a sviluppare capacità analitiche. Non
Il dilemma tra allargamento e approfondimento

Gemini/MIT TR IT
Ogni balzo in avanti tecnologico ci impone di scegliere tra l’approfondimento delle capacità esistenti e l’ampliamento della nostra portata. L’intelligenza artificiale presenta questo dilemma nella sua forma più estrema ed evidente (per ora!).
Cosa perdiamo con l’approfondimento:
- Conoscenza tacita sviluppata attraverso un impegno costante con la complessità
- Resistenza cognitiva: la capacità di affrontare l’ambiguità e di risolvere problemi difficili senza una rapida risoluzione
- Riconoscimento degli errori che deriva dall’aver commesso errori e dall’aver imparato da essi
- Riconoscimento intuitivo di modelli costruito attraverso esperienze ripetute
- I modelli mentali che emergono dal confronto con i problemi piuttosto che dal consumo di soluzioni
Cosa guadagniamo ampliando:
- Velocità di iterazione e apprendimento attraverso test rapidi di molteplici approcci
- Spostamento del carico cognitivo che libera risorse mentali per un pensiero strategico di livello superiore
- Accesso democratizzato ad analisi sofisticate indipendentemente dal background o dalla formazione
- Un processo decisionale migliore su larga scala, che porta a risultati migliori in tutta la società
- Riduzione delle barriere alla sperimentazione e all’innovazione
Cursor e Windsurf permettono di iterare prototipi software in ore invece che settimane. AlphaFold di DeepMind ha risolto in mesi problemi di ripiegamento proteico che avrebbero richiesto decenni di ricerca tradizionale.
Il compromesso appare diverso rispetto ai precedenti, ma lo schema si ripete in modo ricorsivo, spostando il confine sempre più in là, ma tenendo fermo l’interrogativo chiave: quando esternalizziamo il pensiero, cosa rimane di distintamente umano?
Il problema della struttura degli incentivi
Le precedenti innovazioni tecnologiche hanno creato cicli auto-rinforzanti che hanno finito per migliorare le capacità umane. I libri lo dimostrano perfettamente:
Se i libri hanno atrofizzato la memoria, uno degli effetti è stato motivare le persone a scrivere sempre di più, perché non riuscivano a ricordare tutto. Questa limitazione (scarsa memoria) creò l’incentivo a sviluppare una tecnologia compensativa (la scrittura). Ma la scrittura è diventata più di una semplice memoria esterna: è diventata uno strumento per pensare e per diffondere il pensiero, rendendolo accessibile a più persone. Un pensiero più sofisticato e più condiviso ha portato a una scrittura migliore, che preserva e fa evolvere la conoscenza per gli altri.
Il ciclo è stato virtuoso.
Il potenziamento delle nostre capacità di spostarsi nello spazio, mentre atrofizzava la nostra percezione visuo-spaziale, ci ha avvicinato come individui, riducendo complessivamente tribalità e violenza (eh sì, sembra strano, ma ci sono stati tempi peggiori). Abbiamo perso competenze, ne abbiamo raccolte di più importanti.
I grandi modelli linguistici rischiano di rompere questo schema, e alcuni pionieri dell’AI se ne stanno accorgendo. A settembre 2025, Liam Fedus – uno dei ricercatori che ha creato ChatGPT nel 2022 – ha lasciato OpenAI per fondare Periodic Labs insieme a Ekin Dogus Cubuk di Google DeepMind. La loro critica è tagliente: ‘Silicon Valley è intellettualmente pigra’ quando descrive il futuro dei modelli linguistici.
Il problema che hanno identificato è precisamente quello del ciclo vizioso:
- Le persone usano l’AI generativa perché non riescono a pensare come gli esperti
- Ma l’uso dell’intelligenza artificiale non sviluppa il pensiero, lo sostituisce
- I chatbot imparano da testi scritti da esperti umani, ma non possono ‘ragionare per giorni e arrivare a una scoperta incredibile’ – come dice Cubuk, ‘gli umani non possono farlo neanche loro. Fanno molti esperimenti di prova prima di trovare qualcosa di incredibile’
- Più le persone usano l’intelligenza artificiale per avere risposte immediate, meno incentivi hanno a sviluppare competenze attraverso quella sperimentazione faticosa
- Meno esperti significano meno dati-informazioni per i futuri sistemi di intelligenza artificiale
La soluzione che Periodic Labs sta tentando è radicale: costruire robot fisici che conducano migliaia di esperimenti scientifici reali – combinando polveri per creare superconduttori, testando materiali, iterando continuamente. L’AI imparerebbe non solo dai paper accademici, ma dall’intero processo sperimentale: scelta dei materiali, modifiche, fallimenti, successi. Imparare dal fare, non solo dal leggere sul fare.
È significativo che oltre venti ricercatori di punta abbiano rinunciato a stock options del valore di decine o centinaia di milioni per questa scommessa. Quando Mark Zuckerberg ha offerto a Rishabh Agarwal di unirsi al nuovo laboratorio Meta per costruire ‘superintelligenza’, promettendogli milioni, Agarwal ha rifiutato per unirsi a Periodic. Il messaggio implicito: la corsa alla superintelligenza attraverso modelli linguistici sempre più grandi potrebbe essere un vicolo cieco.
Sembra un vortice che sprofonda nell’abisso. Gli attuali sistemi di intelligenza artificiale generativa dipendono da dati di addestramento creati da esperti umani che hanno affrontato anni di apprendimento difficile. Ma l’AI rende i risultati di buona qualità così accessibili che meno persone sono disposte a investire per diventare veri esperti. Stiamo potenzialmente creando una dipendenza da una risorsa (il pensiero esperto), riducendo allo stesso tempo gli incentivi a sviluppare tale risorsa.
A differenza della stampa, che ha creato incentivi per scrivere di più e meglio, l’intelligenza artificiale potrebbe creare disincentivi allo sviluppo delle stesse capacità da cui dipende.
Il paradosso dell’intelligenza collettiva
C’è forse uno spiraglio di luce: le persone assistite dall’intelligenza artificiale prendono decisioni migliori. Se milioni di persone facessero costantemente scelte migliori in ambito aziendale, sanitario, finanziario e di governance – anche senza comprendere a fondo perché tali scelte siano valide – il beneficio complessivo potrebbe essere trasformativo.
Vediamo già questo fenomeno: Watson di IBM assiste gli oncologi nelle diagnosi, producendo raccomandazioni più accurate della media dei medici. Algoritmi di trading assistono decisioni finanziarie complesse. NotebookLM di Google sintetizza ricerche accademiche, rendendo accessibili connessioni che richiederebbero mesi di lettura approfondita.
Ciò crea un paradosso affascinante:
- Livello individuale: le persone diventano meno capaci di ragionamento profondo
- Livello collettivo: la società diventa più capace di buoni risultati
Decisioni aziendali migliori portano a un’allocazione efficiente delle risorse. Decisioni mediche migliori riducono la sofferenza e migliorano i risultati sanitari. Una migliore analisi delle politiche crea una governance più efficace, e sistemi di convivenza più sostenibili. L’effetto combinato di milioni di decisioni leggermente migliori potrebbe generare progressi senza precedenti.
Potremmo barattare la padronanza cognitiva individuale con l’intelligenza collettiva. Il sistema diventa più intelligente man mano che gli individui diventano più dipendenti da esso.
Molteplici dilemmi, nessuna risposta facile
Questa breve esplorazione ci offre diversi dilemmi interconnessi senza una chiara risoluzione:
Il dilemma della sostenibilità delle competenze: se l’intelligenza artificiale fornisce risultati di livello esperto senza richiedere lo sviluppo di competenze specifiche, chi diventerà il team di esperti da cui dipenderanno i futuri sistemi di intelligenza artificiale? Stiamo sprecando un patrimonio accumulato di competenze umane invece di reintegrarlo?
Il dilemma tra capacità e risultati: è meglio avere una società di persone che sanno pensare in modo profondo ma prendono decisioni mediocri, oppure di persone che pensano in modo superficiale ma prendono decisioni eccellenti con l’aiuto dell’intelligenza artificiale?
Il dilemma tra resilienza e performance: il processo decisionale assistito dall’intelligenza artificiale potrebbe ottimizzare le prestazioni, creando al contempo fragilità sistemica. Cosa succede se i sistemi di intelligenza artificiale falliscono o diventano indisponibili? Una società dipendente dall’assistenza dell’intelligenza artificiale sarebbe in grado di funzionare in modo indipendente?
Il dilemma tra individuo e collettività: anche se l’intelligenza artificiale apporta benefici alla società collettiva attraverso un migliore processo decisionale aggregato, che dire dell’esperienza umana individuale? C’è un valore intrinseco nello sforzo cognitivo, nell’ottenere intuizioni attraverso l’impegno?
Il dilemma dell’innovazione: il pensiero assistito dall’intelligenza artificiale porterà a più innovazione (attraverso iterazioni e test più rapidi) o a meno innovazione (attraverso una minore competenza approfondita e la penuria di pensiero originale)?
Un po’ illuminismo adesso!
Gli Illuministi ci rammentano che il progresso crea costantemente i problemi la cui risoluzione guida la successiva ondata di progresso. La stampa ha creato un sovraccarico di informazioni, che alla fine ha portato allo sviluppo di motori di ricerca e filtri di informazione. Internet ha creato un caos informativo, che ha portato a sistemi di intelligenza artificiale in grado di sintetizzare e analizzare enormi quantità di dati.
Se l’intelligenza artificiale crea una carenza di competenze, probabilmente guiderà l’innovazione nel modo in cui creiamo e preserviamo le competenze umane. La società potrebbe investire più deliberatamente in “fabbriche di competenze”, che coltivano le capacità cognitive umane non perché siano economicamente necessarie per il lavoro quotidiano, ma perché sono sistemicamente essenziali per il progresso a lungo termine.
Potremmo sviluppare sistemi di intelligenza artificiale che non si limitino a ricombinare le conoscenze esistenti, ma generino intuizioni realmente nuove. I segnali ci sono già: tecniche come il Thinking Augmented Pre-Training (TPT) iniettano ragionamenti espliciti nei testi durante l’addestramento, triplicando l’efficienza dei dati. Un modello allenato con 100 miliardi di token ‘arricchiti’ con traiettorie di pensiero vale quanto un gigante nutrito con 300 miliardi di token grezzi. Tradotto: milioni di dollari e anni di sviluppo risparmiati.
L’esperimento di Periodic Labs, con i suoi 300 milioni di dollari di finanziamento iniziale e i suoi robot che condurranno esperimenti su scala massiva, rappresenta proprio questo tentativo di sistema ibrido. Non sostituire il pensiero scientifico, ma accelerarlo attraverso iterazione fisica guidata dall’AI. Come dice Oren Etzioni dell’Allen Institute for AI: ‘Risolverà il cancro in due anni? No. Ma è una scommessa visionaria e valida? Sì.’
È un ritorno, in un certo senso, a quando Bell Labs e IBM Research vedevano le scienze fisiche come parte vitale della loro missione. E suggerisce una via d’uscita dal paradosso: l’AI che non si limita a ricombinare conoscenze esistenti estrapolate da testi, ma che genera intuizioni realmente nuove attraverso l’interazione con il mondo fisico.
Ci sono altre evoluzioni in corso che potrebbe alterare questo paradosso. Mentre i chatbot attuali si limitano a ricombinare conoscenze esistenti, nuove architetture stanno emergendo dai laboratori di ricerca. Tecniche come il Reinforcement Learning on Pre-Training Data (RLPT) trasformano il corpus testuale in un ambiente interattivo dove il modello non si limita a prevedere il prossimo token, ma esplora traiettorie di ragionamento. La differenza è sostanziale: non più un pappagallo statistico, ma un sistema che impara a ragionare attraverso l’esplorazione.
Approcci come RLMT (Reinforcement Learning for Mathematical Thinking) obbligano i modelli a ‘pensare prima di parlare’ – ogni risposta deve essere preceduta da una catena di ragionamento valutata da un sistema di ricompense. Con appena 7.000 esempi, questi modelli raggiungono prestazioni superiori a sistemi molto più grandi. È l’ottimizzazione intelligente contro la bulimia di dati.
Ancora più radicale è l’uso di soft tokens continui: invece di catene di pensiero espresse in linguaggio naturale che possiamo leggere, il modello ragiona attraverso rappresentazioni matematiche continue, esplorando più soluzioni in parallelo. È come se un avvocato potesse preparare simultaneamente dieci arringhe e sceglierne la migliore. Il paradosso: per la prima volta un LLM pensa in un linguaggio che non possiamo leggere, ma che potrebbe essere più efficace del nostro.
Progetti come SimpleFold dimostrano che un transformer generico, senza specializzazioni biologiche, può piegare proteine quasi con la precisione di AlphaFold. ShinkaEvolve applica evoluzione darwiniana ai processi di scoperta, usando selezione bilanciata e algoritmi bandit per accelerare breakthrough matematici. Veo 3 porta il ragionamento zero-shot nel dominio visivo, risolvendo 62 compiti diversi – dalla segmentazione al ragionamento fisico – senza training specifico.
Queste tecniche suggeriscono che il ciclo vizioso potrebbe non essere inevitabile: se i modelli imparano davvero a pensare anziché limitarsi a ricombinare, potrebbero generare nuove intuizioni senza dipendere esclusivamente dall’expertise umana accumulata. Ma è una scommessa ancora aperta.
Il modello storico rassicurante è che i sistemi umani tendono ad autocorreggersi attraverso l’accumulo di decisioni intelligenti prese da persone che cercano di risolvere i problemi che si trovano ad affrontare, sfruttando tecnologie sempre nuove. Sempre più spesso, si tratterà di persone assistite dall’IA che prenderanno decisioni assistite dall’IA su come gestire le sfide create dall’IA stessa.
Non abbiamo sviluppato una memoria sovrumana in alternativa ai libri: abbiamo accettato il compromesso e siamo arrivati – in tempi non sospetti a Gutenberg – al punto di svilupparla (la Knowledge Base dei modelli linguistici) incorporando (potenzialmente) tutti i libri. Non svilupperemo un ragionamento sovrumano come contrappunto all’intelligenza artificiale. Probabilmente troveremo nuovi modi per preservare le capacità cognitive di cui abbiamo bisogno, abbracciando al contempo la democratizzazione del pensiero offerta dall’intelligenza artificiale.
La transizione che stiamo vivendo rispecchia ogni precedente rivoluzione tecnologica: ansia per ciò che stiamo perdendo, seguita da un graduale adattamento, seguito dall’emergere di nuovi problemi che stimolano ulteriori capacità e innovazione. I compromessi specifici cambiano, ma il modello rimane costante.
Il grande compromesso cognitivo del nostro tempo non è qualcosa che ci accade, ma qualcosa che possiamo plasmare attivamente. Questa potrebbe essere la capacità più umana di tutte: la capacità di orientare consapevolmente la nostra evoluzione cognitiva, utilizzando gli stessi strumenti che stanno trasformando il nostro modo di pensare per pensare meglio a come vogliamo pensare.