
L’azienda sta facendo un’incursione nella scoperta scientifica con un’intelligenza artificiale costruita per aiutare a produrre cellule staminali.
Quando si pensa ai contributi dell’intelligenza artificiale alla scienza, probabilmente si pensa ad AlphaFold, il programma di piegatura delle proteine di Google DeepMind che ha fatto guadagnare al suo creatore un premio Nobel lo scorso anno.
Ora OpenAI dice che sta entrando anche nel gioco della scienza, con un modello per l’ingegneria delle proteine.
L’azienda afferma di aver sviluppato un modello linguistico che sogna le proteine in grado di trasformare le cellule normali in cellule staminali e di aver battuto l’uomo in questo compito.
Il lavoro rappresenta il primo modello di OpenAI incentrato su dati biologici e la prima affermazione pubblica che i suoi modelli possono fornire risultati scientifici inaspettati. In quanto tale, è un passo avanti verso la determinazione della capacità dell’intelligenza artificiale di fare vere scoperte, che secondo alcuni è un test importante sulla strada dell'”intelligenza artificiale generale”.
La scorsa settimana, l’amministratore delegato di OpenAI Sam Altman si è detto “fiducioso” che la sua azienda sia in grado di costruire un’intelligenza artificiale generale, aggiungendo che “gli strumenti superintelligenti potrebbero accelerare in modo massiccio la scoperta scientifica e l’innovazione, ben al di là di quanto siamo in grado di fare da soli”.
Il progetto di ingegneria proteica è iniziato un anno fa quando Retro Biosciences, una società di ricerca sulla longevità con sede a San Francisco, ha contattato OpenAI per collaborare.
Questo collegamento non è avvenuto per caso. Sam Altman, l’amministratore delegato di OpenAI, ha finanziato personalmente Retro con 180 milioni di dollari, come ha riportato per la prima volta MIT Technology Review nel 2023.
Retro ha l’obiettivo di prolungare la normale durata della vita umana di 10 anni. A tal fine, studia i cosiddetti fattori Yamanaka. Si tratta di un insieme di proteine che, se aggiunte a una cellula della pelle umana, ne determinano la trasformazione in una cellula staminale giovane, in grado di produrre qualsiasi altro tessuto del corpo.
È un fenomeno che i ricercatori di Retro, e di aziende riccamente finanziate come Altos Labs, vedono come il possibile punto di partenza per ringiovanire gli animali, costruire organi umani o fornire scorte di cellule sostitutive.
Ma questa “riprogrammazione” cellulare non è molto efficiente. Ci vogliono diverse settimane e meno dell’1% delle cellule trattate in un piatto di laboratorio completerà il percorso di ringiovanimento.
Il nuovo modello di OpenAI, chiamato GPT-4b micro, è stato addestrato a suggerire modi per reingegnerizzare i fattori proteici per aumentarne la funzione. Secondo OpenAI, i ricercatori hanno utilizzato i suggerimenti del modello per modificare due dei fattori di Yamanaka e renderli più efficaci di 50 volte, almeno secondo alcune misure preliminari.
“In generale, le proteine sembrano migliori di quelle che gli scienziati sono riusciti a produrre da soli”, afferma John Hallman, ricercatore di OpenAI.
Hallman e Aaron Jaech di OpenAI, oltre a Rico Meinl di Retro, sono stati gli sviluppatori principali del modello.
Gli scienziati esterni non saranno in grado di dire se i risultati sono reali fino a quando non saranno pubblicati, cosa che le aziende dicono di avere in programma. Il modello non è nemmeno disponibile per un uso più ampio: si tratta ancora di una dimostrazione su misura, non di un lancio ufficiale del prodotto.
“Questo progetto vuole dimostrare che siamo seriamente intenzionati a contribuire alla scienza”, afferma Jaech. “Ma se queste capacità verranno presentate al mondo come un modello separato o se saranno integrate nei nostri modelli di ragionamento principali, questo è ancora da stabilire”.
Il modello non funziona come AlphaFold di Google, che prevede la forma delle proteine. Poiché i fattori di Yamanaka sono proteine insolitamente flosce e non strutturate, OpenAI ha detto che richiedevano un approccio diverso, per il quale i suoi modelli linguistici di grandi dimensioni erano adatti.
Il modello è stato addestrato su esempi di sequenze di proteine di molte specie, oltre che su informazioni su quali proteine tendono a interagire tra loro. Sebbene si tratti di una grande quantità di dati, è solo una frazione di quelli su cui sono stati addestrati i chatbot di punta di OpenAI, il che rende GPT-4b un esempio di “piccolo modello linguistico” che funziona con un set di dati mirato.
Una volta ricevuto il modello, gli scienziati di Retro hanno cercato di guidarlo per suggerire possibili riprogettazioni delle proteine di Yamanaka. La tattica utilizzata è simile al metodo dei “pochi colpi”, in cui un utente interroga un chatbot fornendo una serie di esempi con risposte, seguiti da un esempio a cui il bot deve rispondere.
Anche se gli ingegneri genetici hanno modo di dirigere l’evoluzione delle molecole in laboratorio, di solito possono testare solo un numero limitato di possibilità. E anche una proteina di lunghezza tipica può essere modificata in modi quasi infiniti (poiché è composta da centinaia di aminoacidi e ogni acido è disponibile in 20 possibili varietà).
Il modello di OpenAI, tuttavia, spesso fornisce suggerimenti in cui un terzo degli aminoacidi delle proteine è stato modificato.

OPENAI
“Abbiamo lanciato immediatamente questo modello in laboratorio e abbiamo ottenuto risultati reali”, afferma Joe Betts-Lacroix, CEO di Retro. Afferma che le idee del modello erano insolitamente buone e hanno portato a miglioramenti rispetto ai fattori originali di Yamanaka in una frazione sostanziale di casi.
Vadim Gladyshev, ricercatore sull’invecchiamento dell’Università di Harvard che collabora con Retro, afferma che sono necessari metodi migliori per produrre cellule staminali. “Per noi sarebbe estremamente utile. [Le cellule della pelle] sono facili da riprogrammare, ma altre cellule non lo sono”, afferma. “E farlo in una nuova specie, spesso è estremamente diverso e non si ottiene nulla”.
Come il GPT-4b arrivi esattamente alle sue ipotesi non è ancora chiaro, come spesso accade con i modelli di intelligenza artificiale. “È come quando AlphaGo ha sconfitto il miglior umano a Go, ma ci è voluto molto tempo per scoprire il perché”, dice Betts-Lacroix. “Stiamo ancora capendo cosa fa e pensiamo che il modo in cui lo applichiamo stia solo scalfendo la superficie”.
OpenAI afferma che la collaborazione non ha comportato alcuno scambio di denaro. Ma poiché il lavoro potrebbe andare a beneficio di Retro – il cui principale investitore è Altman – l’annuncio potrebbe aggiungere ulteriori domande ai progetti collaterali del CEO di OpenAI.
L’anno scorso, il Wall Street Journal ha dichiarato che gli ampi investimenti di Altman in startup tecnologiche private costituiscono un “impero di investimenti opachi” che sta “creando una lista crescente di potenziali conflitti”, dal momento che alcune di queste aziende fanno affari anche con OpenAI.
Nel caso di Retro, il semplice fatto di essere associata ad Altman, OpenAI e alla corsa verso l’AGI potrebbe aumentare il suo profilo e la sua capacità di assumere personale e raccogliere fondi. Betts-Lacroix non ha risposto alle domande se l’azienda in fase iniziale sia attualmente in fase di raccolta fondi.
OpenAI afferma che Altman non era direttamente coinvolto nel lavoro e che non prende mai decisioni basate sugli altri investimenti di Altman.