Le tecnologie di computazione quantistica rappresentano una delle più rapide evoluzioni degli ultimi cinque anni, in Italia, in Europa e nel mondo. Ma le radici teoriche su cui si basano sono ben più antiche, ed estremamente complesse.
Di che cosa parliamo?
Oltre 10,6 miliardi di dollari gli investimenti pubblici e privati nelle tecnologie quantistiche a livello globale nel solo anno 2023, rispetto ai 5,8 miliardi di dollari registrati nel 2022, con una crescita dell’83%.
Il valore del 2023 è stato raggiunto nonostante una flessione degli investimenti privati nelle startup del quantum, che nell’anno sono risultati 1,71 miliardi di dollari, in calo del 27% rispetto al valore record di 2,35 miliardi di dollari registrato nel 2022. Tale diminuzione risulta tuttavia inferiore rispetto al calo del 38% rilevato complessivamente negli investimenti in startup.
Il calo degli investimenti privati nelle tecnologie quantistiche è stato ampiamente compensato dalla crescita dei finanziamenti pubblici, aumentati a livello globale di oltre il 160% rispetto al 2022, passando da 3,4 a oltre 8,9 miliardi di dollari. L’aumento è stato guidato da Regno Unito, Germania e Korea del Sud, che hanno apportato nuovi finanziamenti nell’anno per complessivi 7,7 miliardi di dollari. I finanziamenti pubblici globali cumulati nell’ultima decade hanno raggiunto a fine 2023 il valore di circa 42 miliardi di dollari, guidati dalla Cina con 15,3 miliardi di dollari.
Con 9,9 miliardi di dollari, l’Europa è al secondo posto negli investimenti pubblici per le tecnologie quantistiche e con oltre 113 mila laureati in ambiti rilevanti (laureati di livello magistrale o equivalente in biochimica, chimica, elettronica e ingegneria chimica, tecnologie dell’informazione e della comunicazione, matematica, statistica e fisica) detiene il maggior numero di talenti, seguita da India (91 mila) e Cina (64 mila). Altro elemento di rilievo nell’ambito dello sviluppo delle tecnologie di quantum computing in Europa è l’integrazione all’interno del Joint Undertaking europeo denominato EuroHPC di una forte componente di quantum computing. Nel giugno 2023, EuroHPC ha comunicato la decisione di co-finanziare con 100 milioni di euro di fondi europei, afferenti al Digital Europe Programme, l’acquisizione di 6 macchine quantistiche ospitate in 6 diversi paesi (Repubblica Ceca, Francia, Germania, Italia, Polonia and Spagna) al fine di effettuare dei test su 6 diverse tecnologie e architetture, e di mettere in relazione tali macchine con i potenti centri di calcolo High Performance Computing (HPC) esistenti.
Altro dato interessante: il mercato globale delle tecnologie quantistiche (Quantum Computing, Quantum Communications e Quantum sensing) valeva nel 2022 6,8 miliardi di dollari e potrebbe raggiungere i 15 miliardi di dollari a fine 2025 nel solo Quantum Computing; per quanto riguarda i trend di crescita del mercato McKinsey proietta un valore tra i 70 e i 173 miliardi di dollari al 2040 mentre il Boston Consulting Group indica che il Quantum Computing creerà un valore economico compreso tra i 450 e gli 850 miliardi di dollari; altri studi, indicano addirittura valori superiori.
Quanto sta investendo l’Italia? La situazione italiana è diversa. Il nostro paese registra un livello di competenze molto elevato, ma un ritardo nello sviluppo di questo settore per mancanza di risorse. I fondi arrivati con il PNRR hanno permesso di creare il Centro Nazionale per l’high performance computing, i big data e il quantum computing per cui sono stati investiti circa 320 milioni e nel 2023 è nato il partenariato esteso National quantum science and technology institute (NQSTI), con un budget di 116 milioni di euro in tre anni, che coinvolge 20 istituzioni tra università, centri di ricerca (CNR, IIT, FBK, ICTP, INFN) e due corporate: Leonardo s.p.a. e Thales Alenia Space: e si dedicherà principalmente alla ricerca fondamentale in molteplici scienze e applicazioni quantistiche ma anche al technology transfer, formazione e divulgazione scientifica.
Le tecnologie di computazione quantistica rappresentano una delle più rapide evoluzioni degli ultimi cinque anni, in Italia, in Europa e nel mondo. Ma le radici teoriche su cui si basano sono ben più antiche, ed estremamente complesse, come cercherò di illustrare.
I fondamenti della tecnologia
Tutti noi abbiamo sentito parlare di meccanica quantistica, quella rivoluzione della fisica della materia cui potremmo dare inizio nel 1900, con gli studi di Max Plank sul corpo nero e alle sue origini intimamente legata ai grandi dibattiti dei primi decenni del XX secolo sulla struttura dell’atomo, sulla natura ondulatoria o particolare della luce. Altro fatto noto è che A. Einstein, il padre di un’altra teoria rivoluzionaria e forse più nota di quella quantistica, non accettò mai fino in fondo la teoria quantistica, negando nel 1935 la possibilità dell’esistenza dell’entanglement, fenomeno ad oggi dimostrato. Il Premio Nobel per la Fisica nel 2022 è stato assegnato a Alain Aspect, John F. Clauser e Anton Zeilinger proprio “per i loro esperimenti (…) che hanno permesso di stabilire la violazione delle diseguaglianze di Bell e per i lavori pionieristici nel campo della scienza dell’informazione quantistica”. Di fatto, nel corso del XX secolo attraverso scoperte, esperimenti e teorie successive, si è venuta a determinare la fisica della materia definendo il comportamento della materia a livello atomico o subatomico e superando la teoria classica (ad esempio eliminando il dualismo onda – particella).
Senza entrare nel dettaglio della fisica sottostante, I computer quantistici sfruttano alcune delle proprietà più straordinarie e controintuitive della meccanica quantistica per compiere calcoli in un modo che sarebbe impossibile per i computer tradizionali. Queste proprietà, che includono la sovrapposizione, l’entanglement e la coerenza quantistica, permettono di eseguire operazioni su dati in parallelo e di esplorare rapidamente una gamma molto più ampia di soluzioni possibili.
Di fatto, dunque, un computer quantistico può essere immaginato come un computer classico nel quale la CPU (Central Processing Unit) è sostituita da una QPU (Quantum Processing Unit) e i transistori e resistori, con le loro proprietà fisiche ed elettriche, sono sostituiti da particelle subatomiche (quantistiche) con le loro proprietà legate, appunto, alla meccanica quantistica.
Uno dei fenomeni quantistici più noti, più affascinanti e misteriosi della fisica moderna è il già citato entanglement quantistico: una sorta di danza invisibile tra particelle che, una volta legate, rimangono connesse istantaneamente anche a distanze cosmiche. Questo legame sfida l’intuizione classica, suggerendo che il comportamento di una particella può influenzare immediatamente l’altra, come se comunicassero attraverso un canale nascosto che trascende lo spazio e il tempo. È un fenomeno che non solo sconcerta gli scienziati, ma accende anche l’immaginazione, portandoci a interrogare i limiti della nostra comprensione della realtà stessa. Basti pensare che nel 2017 un gruppo di ricercatori ha disposto in 4 punti distanti migliaia di Km (un punto era addirittura in orbita) dei fotoni in entanglement.
Per utilizzare le particelle quantistiche come “transistor”, i computer quantistici si basano su una moltitudine di “tecnologie” diverse: trapped-ions, photonic qubits, atomi neutri, superconduttori, nuclear spin, dimetil fosfito… per citarne alcuni. Ad oggi la tecnologia non è matura e non è stabilizzata: non esiste “il computer quantistico” come esiste oggi una tecnologia consolidata (seppur sempre in evoluzione) di microchip per CPU o GPU, ma esistono tante soluzioni ancora in fase sperimentale. Guardando al futuro, i tecnologi considerano errato pensare che una sola tecnologia quantistica emergerà: si pensa che in effetti almeno tre tecnologie (photonics, atomi neutri e superconduttori) arriveranno a livelli di maturità superiore a quelli odierni e saranno utilizzati per risolvere tipi diversi di problemi, o in modo diverso.
Due tecnologie molto promettenti
Per spiegare meglio, apro un breve excursus sul confronto tra due tecnologie: atomi neutri e superconduttori. Sebbene entrambe le tecnologie siano al centro della ricerca avanzata, presentano caratteristiche molto diverse, che le rendono più adatte a risolvere specifici tipi di problemi.
I computer quantistici a base di atomi neutri sfruttano particelle che vengono intrappolate e manipolate mediante campi magnetici o reticoli ottici, consentendo una precisione straordinaria nelle operazioni logiche. Uno dei principali vantaggi di questa tecnologia è la sua elevata scalabilità: grazie alla capacità di posizionare gli atomi in reticoli tridimensionali, è possibile raggiungere una densità di Qubit molto alta, elemento cruciale per costruire computer quantistici più potenti. Inoltre, i Qubit basati su atomi neutri hanno tempi di coerenza lunghi, ovvero riescono a mantenere il loro stato quantistico per periodi più prolungati rispetto ad altre tecnologie, riducendo così la perdita di informazioni durante i calcoli complessi.
Tuttavia, uno degli aspetti limitanti di questa tecnologia è la relativa lentezza delle operazioni quantistiche. Sebbene gli atomi neutri possano essere controllati con grande precisione, la velocità con cui avvengono le operazioni è inferiore rispetto a quella dei circuiti superconduttori. Per contro, le infrastrutture necessarie per mantenere e gestire gli atomi, (i laser), rappresentano una sfida significativa in termini di calibrazione e scalabilità ma non sono comparabili alla complessità di gestione degli impianti di raffreddamento per i superconduttori.
Dall’altra parte, i computer quantistici basati su superconduttori si affidano a circuiti costruiti con materiali che, raffreddati a temperature estremamente basse, presentano proprietà quantistiche uniche. Questo approccio consente operazioni logiche ad altissima velocità, rendendo questi sistemi particolarmente efficaci per algoritmi che richiedono un numero elevato di calcoli in un breve lasso di tempo. Queste due tecnologie sono entrambe arrivate a un buon livello di maturità ma necessitano comunque miglioramenti tecnologici, di stabilità e scalabilità al fine di arrivare a livelli adeguati di operatività industriale (come, ad esempio, i supercomputer attuali).
Nonostante i vantaggi in termini di velocità e maturità tecnologica, i qubit superconduttori presentano anche delle limitazioni. In particolare, soffrono di tempi di coerenza più brevi rispetto agli atomi neutri, il che significa che l’informazione quantistica si degrada più rapidamente a causa del rumore e delle interferenze esterne. Questo limita la durata dei calcoli che possono essere eseguiti senza errori, richiedendo l’uso di sofisticati algoritmi di correzione degli errori per mantenere la precisione.
Queste differenze hanno delle ricadute molto importanti: le macchine basate su atomi neutri sembrano essere particolarmente promettenti come gli algoritmi di ottimizzazione, dove la precisione e la stabilità del qubit sono cruciali. Al contrario, i superconduttori sono più indicati per problemi che richiedono rapidità di calcolo e iterazioni frequenti, per le simulazioni quantistiche di sistemi complessi, come quelli chimici e materiali. In realtà, entrambe le tecnologie hanno impatti molto ampi su vari tipi di problemi (ad esempio sul quantum machine learning applicato alla finanza, e su applicazioni crittografiche) e una tematica affascinante e ancora aperta nell’ambito della ricerca applicata è quella di trovare il “best fit” tra tipo di problema, tecnologia di computazione, modello e error correction.
Una caratteristica fondamentale della computazione quantistica, infatti, è la gestione probabilistica dell’errore (error correction). Mentre i computer classici operano in un mondo di certezze e decisioni binarie, i computer quantistici abitano un universo di probabilità e interconnessioni che permette di risolvere problemi complessi con una rapidità impensabile per le tecnologie convenzionali. Ma tali capacità sono virtualmente inutilizzabili se non si è in grado di “pulire” con raffinate tecniche probabilistiche il “noise” cioè di fatto le numerose risposte errate che la macchina restituisce, facendo emergere solo le risposte corrette.
Gli sviluppi industriali e territoriali
Dalla piccola “dose di teoria” che ho voluto introdurre in questo articolo, si evince che la particolarità di questa rivoluzione computazionale è la ricerca di una forte e concreta relazione tra mondo accademico, Enti di ricerca e industria. La rapidità e la sinergia ricerca-industria creano un contesto articolato e molto competitivo, in cui si stanno posizionando tutti gli attori internazionali di rilievo con una taglia di investimenti, come abbiamo visto, molto significativa.
Fisica, matematica, informatica, le discipline chiave per approcciare ed entrare in questo nuovo “flusso di competenze”. Il capitale umano, su cui è evidente e risaputa la situazione di un bacino di competenza ristretto rispetto all’effettiva domanda e pertanto la necessità di espandere e consolidare la formazione in tecnologie quantistiche.
Il Piemonte, si è mosso con lungimiranza per anticipare e favorire lo sviluppo di un contesto pronto ad accogliere e raccogliere le sinergie tra ricerca, formazione e industria. Tra i passi concretamente fatti per sviluppare massa critica di talenti, e quindi una risposta di sistema al contesto di eccellenza del Quantum ricordo due edizioni del Master di secondo livello “Quantum Communication and Computing” con la collaborazione di Politecnico di Torino, Fondazione LINKS e INRiM (istituto nazionale di ricerca metrologica), primo Master in Italia, e l’Istituzione della Laurea Magistrale in Tecnologie Quantistiche al Politecnico di Torino. Per quanto riguarda le sinergie tra ricerca e industria, vorrei menzionare la realizzazione di infrastrutture di ricerca per affrontare sfide scientifiche e problemi ingegneristici nel campo dei dispositivi quantum, micro e nano (PiQuET) e di partenariati di ricerca che vedono protagonisti i principali attori dell’ecosistema della innovazione: oltre al Politecnico, la Fondazione LINKS, l’INRiM e l ‘Università di Torino. A ciò si affianca la partecipazione e l’interesse già manifestato dei principali attori di mercato nell’industria e nei servizi in Piemonte a sostenere, con diverse modalità, la creazione del polo di competenze Piedmont Qtech che mira a diventare un riferimento a livello nazionale e internazionale. Proprio a livello internazionale, infatti, la Fondazione LINKS ha siglato accordi con i principali provider di soluzioni in Europa e negli Stati Uniti: Pasqal, QuEra e IQM e sta dialogando attivamente con il Fermilab di Chicago (Rigetti Computing). LINKS ha inoltre un ruolo attivo nel gruppo Quantum for HPC dell’associazione europea ETP4HPC che promuove ricerca e innovazione industriale sull’HPC in Europa coinvolgendo i più grandi gruppi mondiali (tra gli altri Nvidia, Intel e IBM). È in questo contesto che si inserisce il recente acquisto di una macchina con capacità di 5 Qubit che consentirà a LINKS, Politecnico di Torino e INRiM (agli enti promotori del progetto) di consolidare e aggregare gli interessi accademici, di ricerca e industriali.
Sono infine da citare a livello italiano:
- il recente annuncio del primo Computer Quantistico Superconduttivo da 24 Qubit costruito in Italia, installato presso l’Università Federico II di Napoli: una macchina non ancora ad uso commerciale ma con un’architettura ideata in Italia;
- un computer quantistico di notevole potenza in arrivo al CINECA di Bologna per fine 2024, nel quadro della già menzionata iniziativa EuroHPC, che verrà ad affiancarsi a “Leonardo” e “Lisa”, nomi affettivi della terza infrastruttura di supercomputing più potente d’Europa.
Tasselli importanti, da leggere come segnali positivi per il settore del Quantum Computing e soprattutto primi passi per la creazione di un ecosistema italiano, al momento e come già anticipato, ancora in fase embrionale rispetto alle altre realtà nazionali europee, che sono a loro volta in ritardo rispetto ai giganteschi investimenti già intrapresi in USA e Canada.
Stefano Buscaglia è Direttore Generale di Fondazione LINKS da aprile 2020. Laureato in Ingegneria ambientale presso il Politecnico di Torino, ha conseguito il Master in Business Administration (MBA) all’INSEAD. Al suo attivo vanta numerose esperienze di lavoro in Spagna e Francia lavorando per multinazionali di prestigio come Schlumberger, SNCF (Società Nazionale delle Ferrovie francesi) e Schneider Electric. Hai inoltre fondato e lanciato una start up (ITALGEO) in Romania.