I rapidi progressi nell’applicazione dell’intelligenza artificiale alle simulazioni di fisica e chimica hanno portato alcuni a chiedersi se avremo bisogno dei computer quantistici.
Da anni le aziende tecnologiche investono miliardi di dollari nei computer quantistici. La speranza è che possano cambiare le carte in tavola in campi diversi come la finanza, la scoperta di farmaci e la logistica.
Queste aspettative sono state particolarmente elevate in fisica e chimica, dove entrano in gioco gli strani effetti della meccanica quantistica. In teoria, è qui che i computer quantistici potrebbero avere un enorme vantaggio rispetto alle macchine convenzionali.
Ma mentre il campo lotta con le realtà dell’hardware quantistico, un altro sfidante sta facendo progressi in alcuni dei casi d’uso più promettenti. L’intelligenza artificiale viene ora applicata alla fisica fondamentale, alla chimica e alla scienza dei materiali in un modo che suggerisce che il presunto terreno di casa dell’informatica quantistica potrebbe non essere così sicuro, dopo tutto.
La scala e la complessità dei sistemi quantistici che possono essere simulati con l’intelligenza artificiale stanno avanzando rapidamente, afferma Giuseppe Carleo, professore di fisica computazionale presso l’Istituto Federale Svizzero di Tecnologia (EPFL). Il mese scorso è stato coautore di un articolo pubblicato su Science che dimostra come gli approcci basati sulle reti neurali stiano rapidamente diventando la tecnica principale per la modellazione di materiali con forti proprietà quantistiche. Meta ha inoltre recentemente presentato un modello di intelligenza artificiale addestrato su un nuovo e massiccio set di dati sui materiali che è balzato in cima a una classifica di approcci di apprendimento automatico per la scoperta dei materiali.
Dato il ritmo dei recenti progressi, un numero crescente di ricercatori si chiede se l’intelligenza artificiale possa risolvere una parte sostanziale dei problemi più interessanti della chimica e della scienza dei materiali prima che i computer quantistici su larga scala diventino una realtà.
“L’esistenza di questi nuovi contendenti nell’apprendimento automatico è un duro colpo per le potenziali applicazioni dei computer quantistici”, afferma Carleo “A mio parere, queste aziende scopriranno prima o poi che i loro investimenti non sono giustificati”.
Problemi esponenziali
La promessa dei computer quantistici risiede nel loro potenziale di eseguire alcuni calcoli molto più velocemente dei computer convenzionali. Per realizzare questa promessa saranno necessari processori quantistici molto più grandi di quelli attuali. I dispositivi più grandi hanno appena superato la soglia dei mille qubit, ma per ottenere un vantaggio innegabile sui computer classici ne serviranno probabilmente decine di migliaia, se non milioni. Una volta che l’hardware sarà disponibile, tuttavia, una manciata di algoritmi quantistici, come l’algoritmo di Shor per la violazione della crittografia, avranno il potenziale per risolvere i problemi in modo esponenzialmente più veloce rispetto agli algoritmi classici.
Ma per molti algoritmi quantistici con applicazioni commerciali più ovvie, come la ricerca nei database, la risoluzione di problemi di ottimizzazione o l’alimentazione dell’intelligenza artificiale, il vantaggio in termini di velocità è più modesto. L’anno scorso, un documento di cui è coautore il responsabile dell’informatica quantistica di Microsoft, Matthias Troyer, ha dimostrato che questi vantaggi teorici scompaiono se si tiene conto del fatto che l’hardware quantistico funziona ordini di grandezza più lentamente dei chip dei computer moderni. Anche la difficoltà di far entrare e uscire grandi quantità di dati classici da un computer quantistico è un ostacolo importante.
Troyer e i suoi colleghi hanno quindi concluso che i computer quantistici dovrebbero invece concentrarsi su problemi di chimica e scienza dei materiali che richiedono la simulazione di sistemi in cui gli effetti quantistici dominano. Un computer che opera secondo gli stessi principi quantistici di questi sistemi dovrebbe, in teoria, avere un vantaggio naturale. In effetti, questa è stata un’idea alla base dell’informatica quantistica fin da quando il famoso fisico Richard Feynman ha proposto per la prima volta l’idea.
Le regole della meccanica quantistica governano molte cose di enorme valore pratico e commerciale, come le proteine, i farmaci e i materiali. Le loro proprietà sono determinate dalle interazioni delle particelle che le compongono, in particolare gli elettroni, e la simulazione di queste interazioni al computer dovrebbe consentire di prevedere quali tipi di caratteristiche presenterà una molecola. Ciò potrebbe rivelarsi prezioso per scoprire, ad esempio, nuovi farmaci o batterie più efficienti.
Ma le regole della meccanica quantistica che sfidano l’intuizione – in particolare il fenomeno dell’entanglement, che permette agli stati quantistici di particelle distanti di diventare intrinsecamente legati – possono rendere queste interazioni incredibilmente complesse. Tracciarle con precisione richiede una matematica complicata che diventa esponenzialmente più difficile quanto più particelle sono coinvolte. Ciò può rendere intrattabile la simulazione di grandi sistemi quantistici su macchine classiche.
È qui che i computer quantistici potrebbero brillare. Poiché operano anch’essi in base a principi quantistici, sono in grado di rappresentare gli stati quantistici in modo molto più efficiente rispetto alle macchine classiche. Potrebbero anche sfruttare gli effetti quantistici per accelerare i calcoli.
Ma non tutti i sistemi quantistici sono uguali. La loro complessità è determinata dalla misura in cui le particelle interagiscono, o si correlano, tra loro. Nei sistemi in cui queste interazioni sono forti, tracciare tutte queste relazioni può far esplodere rapidamente il numero di calcoli necessari per modellare il sistema. Ma nella maggior parte dei sistemi di interesse pratico per i chimici e gli scienziati dei materiali, la correlazione è debole, dice Carleo. Ciò significa che le particelle non influenzano in modo significativo il comportamento reciproco, rendendo i sistemi molto più semplici da modellare.
Il risultato, dice Carleo, è che è improbabile che i computer quantistici offrano vantaggi per la maggior parte dei problemi della chimica e della scienza dei materiali. Esistono già strumenti classici in grado di modellare accuratamente i sistemi debolmente correlati, il più importante dei quali è la teoria funzionale della densità (DFT). L’idea alla base della DFT è che tutto ciò che serve per comprendere le proprietà chiave di un sistema è la sua densità elettronica, una misura di come gli elettroni sono distribuiti nello spazio. In questo modo il calcolo è molto più semplice, ma può comunque fornire risultati accurati per i sistemi debolmente correlati.
Simulare sistemi di grandi dimensioni utilizzando questi approcci richiede una notevole potenza di calcolo. Ma negli ultimi anni c’è stata un’esplosione di ricerche che utilizzano la DFT per generare dati su sostanze chimiche, biomolecole e materiali, dati che possono essere utilizzati per addestrare le reti neurali. Questi modelli di intelligenza artificiale apprendono modelli nei dati che consentono loro di prevedere le proprietà che una particolare struttura chimica può avere, ma sono ordini di grandezza più economici da eseguire rispetto ai calcoli DFT convenzionali.
Questo ha ampliato notevolmente le dimensioni dei sistemi che possono essere modellati – fino a 100.000 atomi alla volta – e la durata delle simulazioni, afferma Alexandre Tkatchenko, professore di fisica all’Università del Lussemburgo. “È meraviglioso. Si può davvero fare la maggior parte della chimica”, dice.
Olexandr Isayev, professore di chimica alla Carnegie Mellon University, afferma che queste tecniche sono già ampiamente applicate dalle aziende del settore chimico e delle scienze della vita. E per i ricercatori, problemi prima irraggiungibili come l’ottimizzazione delle reazioni chimiche, lo sviluppo di nuovi materiali per le batterie e la comprensione dei legami tra le proteine stanno finalmente diventando praticabili.
Come per la maggior parte delle applicazioni di intelligenza artificiale, il collo di bottiglia più grande è rappresentato dai dati, afferma Isayev. Il set di dati sui materiali recentemente rilasciato da Meta era costituito da calcoli DFT su 118 milioni di molecole. Un modello addestrato su questi dati ha raggiunto prestazioni all’avanguardia, ma la creazione del materiale di addestramento ha richiesto ingenti risorse di calcolo, ben al di là di quanto sia accessibile alla maggior parte dei team di ricerca. Ciò significa che per realizzare tutte le promesse di questo approccio saranno necessari ingenti investimenti.
Modellare un sistema debolmente correlato usando la DFT non è però un problema a scala esponenziale. Questo suggerisce che con più dati e risorse di calcolo, gli approcci classici basati sull’IA potrebbero simulare anche i sistemi più grandi, dice Tkatchenko. Dato che i computer quantistici abbastanza potenti da competere sono probabilmente ancora lontani decenni, aggiunge, l’attuale traiettoria dell’IA suggerisce che potrebbe raggiungere importanti traguardi, come la simulazione precisa di come i farmaci si legano a una proteina, molto prima.
Correlazioni forti
Quando si tratta di simulare sistemi quantistici fortemente correlati – quelli le cui particelle interagiscono molto – metodi come la DFT si esauriscono rapidamente. Anche se più esotici, questi sistemi includono materiali con capacità potenzialmente trasformative, come la superconduttività ad alta temperatura o il rilevamento ultrapreciso. Ma anche qui l’intelligenza artificiale sta facendo passi da gigante.
Nel 2017 Carleo dell’EPFL e Troyer di Microsoft hanno pubblicato su Science un articolo fondamentale che dimostrava come le reti neurali potessero modellare sistemi quantistici fortemente correlati. L’approccio non impara dai dati in senso classico. Invece, secondo Carleo, è simile al modello AlphaZero di DeepMind, che padroneggia i giochi del Go, degli scacchi e dello shogi utilizzando nient’altro che le regole di ciascun gioco e la capacità di giocare da solo.
In questo caso, le regole del gioco sono fornite dall’equazione di Schrödinger, che può descrivere con precisione lo stato quantistico di un sistema, o funzione d’onda. Il modello gioca contro se stesso disponendo le particelle in una certa configurazione e misurando poi il livello energetico del sistema. L’obiettivo è raggiungere la configurazione di energia più bassa (nota come stato fondamentale), che determina le proprietà del sistema. Il modello ripete questo processo fino a quando i livelli di energia non smettono di scendere, indicando che è stato raggiunto lo stato fondamentale o qualcosa di simile.
Il potere di questi modelli è la loro capacità di comprimere le informazioni, dice Carleo. “La funzione d’onda è un oggetto matematico molto complicato”, afferma Carleo. “Ciò che è stato dimostrato da diversi lavori è che [la rete neurale] è in grado di catturare la complessità di questo oggetto in un modo che può essere gestito da una macchina classica”.
Dopo l’articolo del 2017, l’approccio è stato esteso a un’ampia gamma di sistemi fortemente correlati, spiega Carleo, e i risultati sono stati impressionanti. L’articolo pubblicato il mese scorso su Science insieme ai colleghi mette alla prova le principali tecniche di simulazione classica su una serie di complicati problemi di simulazione quantistica, con l’obiettivo di creare un punto di riferimento per valutare i progressi degli approcci classici e quantistici.
Carleo afferma che le tecniche basate sulle reti neurali sono ora l’approccio migliore per simulare molti dei sistemi quantistici più complessi che sono stati testati. “L’apprendimento automatico sta davvero prendendo il sopravvento in molti di questi problemi”, afferma.
Queste tecniche stanno attirando l’attenzione di alcuni grandi attori dell’industria tecnologica. In agosto, i ricercatori di DeepMind hanno dimostrato in un articolo pubblicato su Science di essere in grado di modellare accuratamente gli stati eccitati dei sistemi quantistici, cosa che un giorno potrebbe aiutare a prevedere il comportamento di oggetti come celle solari, sensori e laser. Gli scienziati di Microsoft Research hanno anche sviluppato una suite di software open-source per aiutare un maggior numero di ricercatori a utilizzare le reti neurali per la simulazione.
Uno dei principali vantaggi di questo approccio è che si basa su massicci investimenti in software e hardware per l’IA, afferma Filippo Vicentini, professore di IA e fisica della materia condensata presso l’École Polytechnique in Francia, che è stato anche coautore del documento di benchmarking di Science: “Essere in grado di sfruttare questo tipo di progressi tecnologici ci dà un enorme vantaggio”.
C’è un’avvertenza: poiché gli stati fondamentali sono effettivamente trovati attraverso tentativi ed errori piuttosto che attraverso calcoli espliciti, si tratta solo di approssimazioni. Ma è anche per questo che l’approccio potrebbe far progredire quello che sembrava un problema intrattabile, afferma Juan Carrasquilla, ricercatore del Politecnico di Zurigo e altro coautore del documento di benchmarking di Science.
Se si vuole tracciare con precisione tutte le interazioni in un sistema fortemente correlato, il numero di calcoli da fare aumenta esponenzialmente con le dimensioni del sistema. Ma se ci si accontenta di una risposta appena sufficiente, è possibile prendere delle scorciatoie.
“Forse non c’è speranza di catturarlo esattamente”, dice Carrasquilla. “Ma c’è speranza di catturare abbastanza informazioni da cogliere tutti gli aspetti che interessano ai fisici. E se riusciamo a farlo, è praticamente indistinguibile da una vera soluzione”.
Sebbene i sistemi fortemente correlati siano generalmente troppo difficili da simulare in modo classico, ci sono casi notevoli in cui questo non è il caso. Tra questi vi sono alcuni sistemi rilevanti per la modellazione dei superconduttori ad alta temperatura, secondo un articolo pubblicato nel 2023 su Nature Communications.
“A causa della complessità esponenziale, è sempre possibile trovare problemi per i quali non è possibile trovare una scorciatoia”, afferma Frank Noe, responsabile della ricerca presso Microsoft Research, che ha guidato gran parte del lavoro dell’azienda in questo settore. “Ma credo che il numero di sistemi per i quali non è possibile trovare una buona scorciatoia si ridurrà sempre di più”.
Nessun proiettile magico
Tuttavia, Stefanie Czischek, assistente alla cattedra di fisica dell’Università di Ottawa, sostiene che può essere difficile prevedere quali problemi le reti neurali siano in grado di risolvere. Per alcuni sistemi complessi riescono incredibilmente bene, ma su altri apparentemente semplici i costi computazionali lievitano inaspettatamente. “Non conosciamo davvero i loro limiti”, afferma l’esperta. “Nessuno sa ancora quali sono le condizioni che rendono difficile la rappresentazione dei sistemi con queste reti neurali”.
Nel frattempo, sono stati compiuti progressi significativi anche in altre tecniche di simulazione quantistica classica, afferma Antoine Georges, direttore del Center for Computational Quantum Physics del Flatiron Institute di New York, che ha anche contribuito al recente documento di benchmarking di Science. “Tutte hanno successo a sé stanti e sono anche molto complementari”, afferma. “Quindi non credo che questi metodi di apprendimento automatico metteranno completamente fuori gioco tutti gli altri”.
Anche i computer quantistici avranno la loro nicchia, afferma Martin Roetteler, direttore senior delle soluzioni quantistiche di IonQ, che sta sviluppando computer quantistici costruiti da ioni intrappolati. Pur concordando sul fatto che gli approcci classici saranno probabilmente sufficienti per simulare sistemi debolmente correlati, è convinto che alcuni grandi sistemi fortemente correlati saranno al di fuori della loro portata. “L’esponenziale si fa sentire”, dice. “Ci sono casi di sistemi fortemente correlati che non possiamo trattare in modo classico. Sono fortemente convinto che sia questo il caso”.
Al contrario, un futuro computer quantistico con tolleranza ai guasti, dotato di molti più qubit rispetto ai dispositivi odierni, sarà in grado di simulare tali sistemi. Ciò potrebbe aiutare a trovare nuovi catalizzatori o a migliorare la comprensione dei processi metabolici nell’organismo, un’area di interesse per l’industria farmaceutica.
Le reti neurali probabilmente aumenteranno la portata dei problemi che possono essere risolti, afferma Jay Gambetta, che dirige gli sforzi di IBM per l’elaborazione quantistica, ma non è convinto che risolveranno le sfide più difficili a cui le aziende sono interessate.
“Questo è il motivo per cui molte aziende che hanno come requisito essenziale la chimica stanno ancora studiando la quantistica, perché sanno esattamente dove questi metodi di approssimazione si rompono”, spiega l’esperto.
Gambetta respinge anche l’idea che le tecnologie siano rivali. A suo avviso, il futuro dell’informatica prevede probabilmente un ibrido dei due approcci, con subroutine quantistiche e classiche che lavorano insieme per risolvere i problemi. “Non credo che siano in competizione. Penso che in realtà si aggiungano l’una all’altra”, afferma.
Ma Scott Aaronson, che dirige il Quantum Information Center dell’Università del Texas, sostiene che gli approcci di apprendimento automatico sono in diretta competizione con i computer quantistici in aree come la chimica quantistica e la fisica della materia condensata. Egli prevede che una combinazione di apprendimento automatico e simulazioni quantistiche supererà gli approcci puramente classici in molti casi, ma questo non sarà chiaro finché non saranno disponibili computer quantistici più grandi e affidabili.
“Fin dall’inizio ho considerato l’informatica quantistica come una ricerca scientifica, con le applicazioni industriali come ciliegina sulla torta”, afferma. “Quindi, se la simulazione quantistica si rivelasse in grado di battere l’apprendimento automatico classico solo raramente, non mi sentirei così sconfortato come alcuni dei miei colleghi”.
Secondo Carleo dell’EPFL, un’area in cui i computer quantistici sembrano avere un chiaro vantaggio è la simulazione dell’evoluzione nel tempo di sistemi quantistici complessi. Questo potrebbe fornire intuizioni preziose per gli scienziati in campi come la meccanica statistica e la fisica delle alte energie, ma sembra improbabile che porti a usi pratici nel breve termine. “Si tratta di applicazioni di nicchia che, a mio parere, non giustificano gli ingenti investimenti e l’enorme clamore”, aggiunge Carleo.
Tuttavia, gli esperti con cui MIT Technology Review ha parlato hanno affermato che la mancanza di applicazioni commerciali non è un motivo per smettere di perseguire l’informatica quantistica, che potrebbe portare a scoperte scientifiche fondamentali nel lungo periodo.
“La scienza è come un insieme di scatole annidate: risolvi un problema e ne trovi altri cinque”, dice Vicentini. “La complessità delle cose che studiamo aumenterà nel tempo, quindi avremo sempre bisogno di strumenti più potenti”.