L’IA non comprende il nesso tra causa ed effetto

In meno di un decennio, i computer sono diventati molto bravi a diagnosticare malattie, a tradurre e a trascrivere discorsi; possono superare gli umani in complicati giochi di strategia, creare immagini fotorealistiche e suggerire risposte utili alle e-mail, ma nonostante questi risultati impressionanti, l’intelligenza artificiale mostra ancora evidenti punti deboli.

di Brian Bergstein

I sistemi di apprendimento automatico possono essere ingannati o confusi da situazioni che non hanno mai visto prima. Un’auto a guida autonoma interpreta in modo erroneo uno scenario che un guidatore umano potrebbe gestire facilmente. Un sistema di intelligenza artificiale addestrato faticosamente per svolgere un compito (per esempio, identificare i gatti), deve essere nuovamente addestrato a fare qualcos’altro (identificare i cani). 

Nel processo, rischia di perdere parte dell’esperienza che aveva acquisito nel compito originale. Gli informatici chiamano questo problema “dimenticanza catastrofica”.
Queste carenze hanno qualcosa in comune: esistono perché i sistemi di intelligenza artificiale non comprendono la causalità. Vedono che alcuni eventi sono associati ad altri eventi, ma non sono in grado di capire il nesso causa-effetto. È come dire che piove sempre quando ci sono le nuvole, ma non concludere che le nuvole sono la causa della pioggia.

Comprendere il rapporto causale è un aspetto importante di ciò che chiamiamo buon senso, ed è un punto debole dei sistemi attuali di intelligenza artificiale, afferma Elias Bareinboim, direttore del Causal Artificial Intelligence Lab della Columbia University, un centro in prima linea nei tentativi di risolvere questo problema. 

La sua idea è quella di mescolare la ricerca dell’intelligenza artificiale con intuizioni della relativamente nuova scienza della causalità, un campo modellato in larga misura da Judea Pearl, vincitore del Premio Turing e mentore di Bareinboim.

Come lo descrivono Bareinboim e Pearl, la capacità dell’IA di individuare le correlazioni, per esempio il fatto che le nuvole rendono molto probabile la pioggia, è semplicemente il livello più semplice di ragionamento causale, che ha comunque guidato, negli ultimi dieci anni, il boom della tecnologia IA conosciuta con il nome di apprendimento profondo. Con a disposizione molti dati su determinate situazioni, questo metodo può portare a ottime previsioni.

Un computer può calcolare la probabilità che un paziente con determinati sintomi abbia una certa malattia, perché ha appreso quanto spesso migliaia o addirittura milioni di altre persone con gli stessi sintomi hanno avuto quella malattia.

Ma c’è un crescente consenso sul fatto che i progressi nell’intelligenza artificiale si bloccheranno se i computer non riescono a comprendere meglio il rapporto di causalità. Se le macchine potessero capire che certe cose portano ad altre cose, non dovrebbero ogni volta imparare tutto di nuovo, ma potrebbero applicare ciò che hanno imparato a più domini. E se le macchine potessero usare il buon senso, saremmo in grado di fidarci di più per lasciarle intraprendere azioni da sole, sapendo che non è probabile che facciano errori stupidi.

L’intelligenza artificiale di oggi ha solo una capacità limitata di inferire ciò che deriverà da una determinata azione. Nell’apprendimento per rinforzo, una tecnica che ha permesso alle macchine di dominare in giochi come gli scacchi e Go, un sistema utilizza schemi avanzati di prove ed errori per discernere le mosse vincenti. Ma questo approccio non funziona nei contesti più disordinati che presenta il mondo reale. La macchina non acquisisce neanche una comprensione generale di come potrebbe giocare ad altri giochi.

Un livello ancora più elevato di pensiero causale sarebbe la capacità di ragionare sul perché le cose sono successe e porre domande del tipo “e se”. Un paziente muore durante una sperimentazione clinica; è stata colpa della medicina sperimentale o di qualcosa di diverso? I punteggi dei test scolastici stanno peggiorando; quali cambiamenti politici potrebbero cambiare la situazione? Questo tipo di ragionamento va ben oltre l’attuale capacità dell’intelligenza artificiale.

Fare miracoli

Judea Pearl

Il sogno di rendere i computer in grado di fare ragionamenti causali ha portato Bareinboim dal Brasile negli Stati Uniti nel 2008, dopo aver completato un master in informatica presso l’Università Federale di Rio de Janeiro. Ha colto l’occasione per studiare sotto la guida di Judea Pearl, un informatico e statistico dell’UCLA. Pearl, 83 anni, è un gigante – il gigante – dell’inferenza causale e la sua carriera aiuta a spiegare perché è difficile creare un’IA che capisca la causalità.

Perfino scienziati ben addestrati sono in grado di interpretare erroneamente le correlazioni come segni di causalità o di errare nella direzione opposta, esitando a parlare di causalità anche quando sarebbe giustificato. Negli anni 1950, per esempio, alcuni eminenti statistici mettevano in dubbio che il tabacco causasse il cancro. Sostenevano che senza un esperimento che prendesse in considerazione a campione fumatori e non fumatori, nessuno avrebbe potuto escludere la possibilità che alcune cause sconosciute – lo stress o qualche gene – facessero sì che le persone fumassero e si ammalassero di cancro ai polmoni.

Alla fine, il fatto che il fumo provochi il cancro è stato definitivamente accertato, ma non ci si sarebbe dovuto impiegare così tanto tempo. Da allora, Pearl e altri statistici hanno elaborato un approccio matematico per identificare quali fatti siano necessari per supportare un’affermazione causale. Il metodo di Pearl mostra che, dato il rapporto stretto tra fumo e cancro ai polmoni, un fattore indipendente che provochi entrambi sarebbe estremamente improbabile.

Al contrario, le formule di Pearl aiutano anche a identificare quando le correlazioni non possono essere utilizzate per determinare la causalità. Bernhard Schölkopf, direttore dell’Istituto tedesco Max Planck per i sistemi intelligenti, si occupa delle tecniche di IA causale e sostiene che è possibile prevedere il tasso di natalità di un paese se si conosce la sua popolazione di cicogne. 

Ciò non è dovuto al fatto che le cicogne portano bambini o siano amate da loro, ma probabilmente a una realtà in cui lo sviluppo economico porta a un numero maggiore di bambini e di cicogne. Pearl ha aiutato gli statistici e gli informatici a risolvere questi problemi, afferma Schölkopf.

Il lavoro di Pearl ha anche portato allo sviluppo di reti bayesiane causali, software che setacciano grandi quantità di dati per rilevare quali variabili sembrano avere la maggiore influenza su altre variabili. Per esempio, GNS Healthcare, un’azienda di Cambridge, nel Massachusetts, utilizza queste tecniche per fornire consigli ai ricercatori su esperimenti che sembrano promettenti.

In un progetto, GNS ha lavorato con ricercatori che studiano il mieloma multiplo, una specie di tumore del sangue. I ricercatori volevano sapere perché alcuni pazienti con la malattia vivono più a lungo di altri dopo aver ricevuto trapianti di cellule staminali, una forma comune di terapia. Il software ha sfogliato i dati con 30.000 variabili e ne ha indicate alcune che sembravano particolarmente interessanti. 

Biostatistici ed esperti della malattia si sono concentrati su uno in particolare: il livello di una certa proteina nell’organismo dei pazienti. I ricercatori potrebbero quindi eseguire una sperimentazione clinica mirata per vedere se i pazienti con determinati livelli di questa proteina hanno effettivamente beneficiato maggiormente della terapia. “È molto più veloce che sperimentare in laboratorio”, afferma Iva Khalil, cofondatrice della GNS.

Tuttavia, i miglioramenti che Pearl e altri studiosi hanno ottenuto nella teoria causale non hanno ancora determinato progressi significativi nel campo dell’apprendimento profondo. Bareinboim sta lavorando al passo successivo: rendere i computer strumenti più utili per le esplorazioni causali umane.

Uno dei suoi sistemi, che è ancora in fase beta, può aiutare gli scienziati a determinare se dispongono di dati sufficienti per rispondere a una domanda causale. Richard McElreath, un antropologo del Max Planck Institute for Evolutionary Anthropology, sta usando il software per guidare la ricerca sul perché gli umani passano attraverso una fase di menopausa (siamo le uniche scimmie ad averla).

L’ipotesi è che il declino della fertilità nelle donne anziane abbia avvantaggiato le prime società umane perché le donne che si impegnano maggiormente nella cura dei nipoti alla fine hanno avuto più discendenti. Ma quali prove potrebbero esistere oggi per sostenere l’affermazione che i bambini crescono meglio con i nonni? Gli antropologi non possono confrontare lo sviluppo educativo e lo stato fisico dei bambini che hanno vissuto con i nonni e quelli che non lo hanno fatto. 

Ci sono quelli che gli statistici chiamano fattori confondenti: le nonne potrebbero essere più propense a vivere con i nipoti che hanno bisogno del massimo aiuto. Il software di Bareinboim può aiutare McElreath a discernere quali studi sui bambini che sono cresciuti con i nonni presentano meno fattori confondenti e potrebbe risultare prezioso per rispondere alla sua domanda. 

L’ultimo miglio

Elias Bareinboim

Bareinboim parla velocemente e spesso gesticola con le mani in aria, come se stesse cercando di bilanciare due lati di un’equazione mentale. Era metà semestre quando, a ottobre, l’ho incontrato alla Columbia, ma sembrava che si fosse appena trasferito nel suo ufficio: quasi nulla sui muri, niente libri sugli scaffali, solo un elegante computer Mac e una lavagna così densa di equazioni e diagrammi che sembrava un fotogramma di un cartone animato su un professore pazzo.

Si è “giustificato” dicendo che era stato molto impegnato a tenere lezioni sulla cosiddetta rivoluzione causale. Bareinboim crede che un lavoro come il suo offra l’opportunità non solo di incorporare il pensiero causale nelle macchine, ma anche di migliorarlo negli esseri umani.

A suo parere, indurre le persone a riflettere più attentamente sulla causalità non è necessariamente molto più semplice che insegnarlo alle macchine. I ricercatori in una vasta gamma di settori, dalla biologia molecolare alla politica, a volte si accontentano di scoprire correlazioni che non sono effettivamente radicate nei rapporti causali. Per esempio, alcuni studi indicano che bere alcolici porta a una morte precoce, mentre altri indicano che un consumo moderato sia persino benefico, e ulteriori ricerche hanno scoperto che i forti bevitori vivono più a lungo dei non bevitori.

Questo fenomeno, noto come “crisi della riproducibilità”, si manifesta non solo in medicina e nel campo della scienza della alimentazione, ma anche in psicologia ed economia. “E’ facile vedere la fragilità di tutte queste inferenze”, afferma Bareinboim. “Ogni due anni si arriva a conclusioni diverse”.

Egli sostiene che chiunque voglia rispondere alla domanda “e se” (ricercatori medici che organizzano studi clinici, scienziati sociali che sviluppano programmi pilota, persino editori web che preparano test A / B), dovrebbe iniziare non solo a raccogliere i dati, ma a utilizzare la logica causale di Pearl e il software di Bareinboim per determinare se i dati disponibili potrebbero eventualmente rispondere a un’ipotesi causale.

Alla fine, si dovrebbe arrivare a uno “scienziato automatizzato”. Una persona potrebbe porre una domanda per stabilire l’esistenza o meno di un nesso causale e il software, combinando la teoria dell’inferenza causale con le tecniche di apprendimento automatico, escluderebbe gli esperimenti che non rispondono alla domanda. Ciò consentirebbe agli scienziati di evitare un gran numero di inutili ricerche.

Bareinboim me ne ha parlato mentre eravamo seduti nell’atrio della Sloan School of Management del MIT, subito dopo una sua conferenza. “Abbiamo un edificio qui al MIT con più o meno 200 persone”, ha detto. “In che modo questi scienziati decidono quali esperimenti portare avanti e quali dati raccogliere? Solo seguendo la loro intuizione”.

Si tratta di un approccio intrinsecamente limitato, ha spiegato, perché gli scienziati che progettano un esperimento possono considerare solo una modesta serie di variabili nelle loro menti. Un computer, invece, può vedere l’interazione di centinaia o migliaia di variabili. Codificato con “i principi di base” del calcolo causale di Pearl e in grado di calcolare cosa potrebbe accadere con più insiemi di variabili, uno scienziato automatizzato potrebbe indicare esattamente a quali esperimenti i ricercatori umani potrebbero dedicarsi.

!Con questo sistema”, ha continuato, “gli scienziati non porterebbero più avanti esperimenti al buio. Siamo all’ultimo miglio prima della vittoria”.

E se?

Fare l’ultimo miglio richiederà probabilmente tecniche che sono ancora alle fasi iniziali. Per esempio, Yoshua Bengio, un informatico dell’Università di Montreal co-destinatario del Premio Turing del 2018 per il suo lavoro sull’apprendimento profondo, sta cercando di ottenere reti neurali, il software al centro del deep learning, per realizzare forme di “meta-apprendimento”.

Allo stato attuale, se si volesse che una rete neurale rilevi quando le persone ballano, si mostrerebbero una serie infinita di immagini di ballerini. Se si volesse che identificasse persone che corrono, si mostrerebbe una serie infinita di immagini di corridori. Il sistema imparerebbe a distinguere i corridori dai ballerini identificando caratteristiche che tendono ad essere diverse nelle immagini, come la posizione delle mani e delle braccia di una persona.

Bengio evidenzia che le conoscenze fondamentali sul mondo possono essere raccolte analizzando le cose simili o “invarianti” tra i set di dati. Forse una rete neurale potrebbe imparare che i movimenti delle gambe sono alla base della corsa e della danza. Una macchina potrebbe anche, dopo aver visto numerosi esempi che mostrano le persone a pochi metri da terra, capire qualcosa su come funziona la gravità e sui limiti dei movimenti umani. Nel tempo, con un sufficiente meta-apprendimento sulle variabili coerenti tra i set di dati, un computer potrebbe acquisire conoscenze causali che sarebbero riutilizzabili in molti domini.

Da parte sua, Pearl afferma che l’IA non può essere veramente intelligente fino a quando non avrà una piena comprensione di causa ed effetto. A suo parere, anche se il ragionamento causale non è sufficiente per un’intelligenza generale artificiale, è necessario perché consentirebbe l’introspezione che è al centro della cognizione. “Le domande del tipo ‘E se’ sono i mattoni della scienza, degli atteggiamenti morali, del libero arbitrio, della coscienza”, spiega Pearl.

Alla domanda sul tempo che impiegheranno i computer a ottenere potenti capacità di ragionamento causale, Pearl risponde: “Non sono uno che legge il futuro”. Ma in ogni caso, pensa che la prima mossa dovrebbe essere quella di sviluppare strumenti di apprendimento automatico che combinino i dati con le conoscenze scientifiche disponibili: “Abbiamo molta conoscenza nei nostri cervelli che non vengono utilizzate”.

Brian Bergstein, ex redattore di “MIT Technology Review” america, è vicedirettore del “Boston Globe”.

Immagine: Saiman Chow

(rp)

Related Posts
Total
0
Share