Gli scienziati stanno sperimentando Frontier, la prima macchina exascale e nel mondo tech è corsa al supercomputing.
Può essere difficile capire la capacità di macinare numeri del supercomputer più veloce al mondo. L’informatico Jack Dongarra, dell’Università del Tennessee, la mette così: “Se tutti sulla Terra facessero un calcolo al secondo, ci vorrebbero quattro anni per eguagliare quello che questo computer può fare in un secondo”.
Il supercomputer in questione si chiama Frontier. Occupa lo spazio di due campi da tennis all’Oak Ridge National Laboratory, sulle colline orientali del Tennessee, dove è stato presentato nel maggio 2022.
Ecco altre specifiche: Frontier utilizza circa 50.000 processori, rispetto ai 16 o 24 del laptop più potente. Consuma 20 milioni di watt, rispetto ai 65 circa di un portatile. La sua costruzione è costata 600 milioni di dollari.
Quando Frontier è entrato in funzione, ha segnato l’alba del cosiddetto calcolo exascale, con macchine in grado di eseguire un exaflop, ovvero un quintilione (1018) di operazioni in virgola mobile al secondo. Da allora, gli scienziati si sono preparati per realizzare altri computer che abbiano tale incredibile velocità: diverse macchine exascale dovrebbero entrare in funzione negli Stati Uniti e in Europa nel 2024.
Ma la velocità in sé non è l’obiettivo finale. I ricercatori stanno costruendo computer exascale per esplorare questioni scientifiche e ingegneristiche precedentemente inaccessibili in biologia, clima, astronomia e altri campi. Nei prossimi anni, gli scienziati utilizzeranno Frontier per eseguire le più complicate simulazioni al computer che l’uomo abbia mai concepito. Sperano di rispondere a domande ancora irrisolte sulla natura e di progettare nuove tecnologie in settori che vanno dai trasporti alla medicina.
Evan Schneider dell’Università di Pittsburgh, ad esempio, sta usando Frontier per eseguire simulazioni sull’evoluzione della nostra galassia nel tempo. In particolare, è interessata al flusso di gas dentro e fuori la Via Lattea. Una galassia, in un certo senso, respira: il gas entra in essa, si aggrega in stelle a causa della gravità, ma il gas pure esce, ad esempio quando le stelle esplodono e rilasciano materia. Schneider studia i meccanismi con cui le galassie espirano. “Possiamo confrontare le simulazioni con l’universo reale osservato e questo ci dà un’idea della correttezza della fisica”, spiega Schneider.
Schneider sta usando Frontier per costruire un modello computerizzato della Via Lattea con una risoluzione sufficientemente alta da poter ingrandire le singole stelle che esplodono. Ciò significa che il modello deve catturare le proprietà su larga scala della nostra galassia a 100.000 anni luce, nonché le proprietà delle supernove a circa 10 anni luce di distanza. “Questo non è mai stato fatto”, afferma la studiosa. Per avere un’idea di cosa significhi questa risoluzione, si pensi che sarebbe come creare un modello fisicamente accurato di una lattina di birra con le singole cellule di lievito al suo interno e le interazioni a ogni scala intermedia.
Stephan Priebe, ingegnere presso GE, utilizza Frontier per simulare l’aerodinamica della prossima generazione di aeroplani. Per aumentare l’efficienza del carburante, GE sta studiando un progetto di motore noto come “open fan architecture”. I motori a reazione utilizzano ventole per generare la spinta, e ventole più grandi significano maggiore efficienza. Per rendere le ventole ancora più grandi, gli ingegneri hanno proposto di rimuovere il telaio strutturale esterno, noto come gondola, in modo che le pale siano esposte come in una girandola. “Le simulazioni ci permettono di ottenere una visione dettagliata delle prestazioni aerodinamiche già nella fase di progettazione”, afferma Priebe. Gli ingegneri possono così capire come modellare le ventole per migliorarne l’aerodinamica, ad esempio, o per renderle più silenziose.
Frontier trarrà particolare beneficio dagli studi di Priebe sulla turbolenza, il movimento caotico di un fluido eccitato – in questo caso, l’aria – attorno alle ventole. La turbolenza è un fenomeno comune. La vediamo nell’infrangersi delle onde oceaniche e nel ricciolo di fumo che sale da una candela spenta. Ma gli scienziati ancora faticano a prevedere come scorrerà esattamente un fluido turbolento. Questo perché si muove in risposta sia a influenze macroscopiche, come le variazioni di pressione e temperatura, sia a influenze microscopiche, come lo sfregamento delle singole molecole di azoto nell’aria l’una contro l’altra. L’interazione di forze su più scale complica il movimento.
Quando mi sono laureato, un professore mi ha detto: “Bronson, se qualcuno ti dice che capisce la turbolenza, dovresti mettere una mano sul portafoglio e uscire dalla stanza, perché sta cercando di venderti qualcosa”, dice l’astrofisico Bronson Messer, direttore scientifico dell’Oak Ridge Leadership Computing Facility, che ospita Frontier. “Nessuno capisce la turbolenza. È davvero l’ultimo grande problema della fisica classica”.
Questi studi scientifici illustrano il punto di forza dei supercomputer: simulare oggetti fisici su più scale contemporaneamente. Altre applicazioni riprendono questo tema. Frontier consente modelli climatici più accurati, che devono simulare le condizioni meteorologiche su diverse scale spaziali dell’intero pianeta e su scale temporali sia lunghe sia brevi. I fisici possono anche simulare la fusione nucleare, il processo turbolento in cui il Sole genera energia premendo gli atomi insieme per formare elementi diversi. Vogliono capire meglio il processo per sviluppare la fusione come tecnologia energetica pulita. Sebbene questo tipo di simulazioni multi-scala sia stato un punto fermo del supercalcolo per molti anni, Frontier può incorporare una gamma più ampia di scale diverse rispetto al passato.
Per utilizzare Frontier, gli scienziati autorizzati si collegano al supercomputer da remoto, inviando i loro lavori via Internet. Per sfruttare al meglio la macchina, Oak Ridge punta ad avere circa il 90% dei processori del supercomputer che eseguono calcoli 24 ore al giorno, sette giorni alla settimana. “Entriamo in questa sorta di attività continua in cui eseguiamo costantemente simulazioni scientifiche per una manciata di anni”, dice Messer. Gli utenti conservano i loro dati a Oak Ridge in una struttura di archiviazione dati che può contenere fino a 700 petabyte, l’equivalente di circa 700.000 dischi rigidi portatili.
Frontier è il primo supercomputer exascale, ma altri sono in arrivo. Negli Stati Uniti, i ricercatori stanno attualmente installando due macchine che saranno in grado di superare i due exaflop: Aurora, presso l’Argonne National Laboratory in Illinois, ed El Capitan, presso il Lawrence Livermore National Laboratory in California. A partire dall’inizio del 2024, gli scienziati intendono utilizzare Aurora per creare mappe dei neuroni nel cervello e per cercare catalizzatori che potrebbero rendere più efficienti processi industriali come la produzione di fertilizzanti. El Capitan, anch’esso previsto per il 2024, simulerà armi nucleari per aiutare il governo a mantenere le sue scorte senza test di armi. Nel frattempo, l’Europa prevede di installare il suo primo supercomputer exascale, Jupiter, alla fine del 2024.
Anche la Cina avrebbe dei supercomputer exascale, ma non ha reso noti i risultati dei test sulle loro prestazioni, per cui i computer non compaiono nella TOP500, una lista semestrale dei supercomputer più veloci. “I cinesi sono preoccupati che gli Stati Uniti impongano ulteriori limiti in termini di tecnologia destinata alla Cina, e sono riluttanti a rivelare quante di queste macchine ad alte prestazioni sono disponibili”, dice Dongarra, che ha definito lo standard di riferimento che i supercomputer devono considerare per la TOP500.
La fame di maggiore potenza di calcolo non si ferma con l’exascale. Oak Ridge sta già considerando la prossima generazione di computer, dice Messer. Questi avrebbero una potenza di calcolo da tre a cinque volte superiore a quella di Frontier. Ma una sfida importante incombe: l’enorme impatto energetico. L’energia assorbita da Frontier, anche quando è al minimo, è sufficiente a far funzionare migliaia di case. “Probabilmente non è sostenibile far crescere le macchine sempre di più”, dice Messer.
Man mano che Oak Ridge ha costruito supercomputer sempre più grandi, gli ingegneri hanno lavorato per migliorare l’efficienza delle macchine con innovazioni, tra cui un nuovo metodo di raffreddamento. Summit, il predecessore di Frontier ancora in funzione a Oak Ridge, spende circa il 10% del suo consumo energetico totale per raffreddarsi. Frontier destina il 3%-4% del suo consumo al raffreddamento. Questo miglioramento è dovuto all’utilizzo di acqua a temperatura ambiente per raffreddare il supercomputer, anziché di acqua refrigerata.
I supercomputer di nuova generazione saranno in grado di simulare simultaneamente scale ancora più ampie. Per esempio, con Frontier, la simulazione della galassia di Schneider ha una risoluzione fino alle decine di anni luce. Questo non è ancora sufficiente per arrivare alla scala delle singole supernove, quindi i ricercatori devono simulare le singole esplosioni separatamente. Un futuro supercomputer potrebbe essere in grado di unire tutte queste scale.
Simulando in modo più realistico la complessità della natura e della tecnologia, questi supercomputer spingono i limiti della scienza. Una simulazione più realistica delle galassie porta la vastità dell’universo a portata di mano degli scienziati. Un modello preciso della turbolenza dell’aria intorno a una ventola d’aereo evita la necessità di costruire una galleria del vento dai costi proibitivi. Modelli climatici migliori consentono agli scienziati di prevedere il destino del nostro pianeta. In altre parole, abbiamo un nuovo strumento per prepararci a un futuro incerto.
Foto: Una vista di Frontier, una macchina di classe exascale presso l’Oak Ridge National Laboratory. OLCF