Skip to main content

Intelligenza artificiale

Nell’ultimo anno i progressi dell’IA sono stati straordinari. Gli Innovators la stanno utilizzando per ridefinire interi settori e cercano di renderla sicura.

Connor Coley

MIT

Connor Coley, 29 anni, ha sviluppato un software open-source che utilizza l’intelligenza artificiale per aiutare a scoprire e sintetizzare nuove molecole. La suite di strumenti, chiamata ASKCOS, è utilizzata in produzione da oltre una dozzina di aziende farmaceutiche e da decine di migliaia di chimici per creare nuovi farmaci, nuovi materiali e processi industriali più efficienti.

Uno dei maggiori colli di bottiglia nello sviluppo di nuove molecole è stato a lungo l’identificazione di candidati interessanti da testare. Questo processo si è svolto più o meno nello stesso modo per decenni: apportare una piccola modifica a una molecola nota e poi testare la nuova creazione per le sue proprietà biologiche, chimiche o fisiche.

L’approccio di Coley prevede una forma di IA generativa per la chimica. Un chimico indica quali proprietà sono di interesse e gli algoritmi guidati dall’intelligenza artificiale suggeriscono nuove molecole con il maggior potenziale di avere quelle proprietà. Il sistema analizza le molecole conosciute e le loro proprietà attuali, per poi prevedere come piccoli cambiamenti strutturali possano portare a nuovi comportamenti.

Di conseguenza, i chimici dovrebbero spendere meno tempo a testare candidati che non si rivelano mai validi. “I tipi di metodi su cui lavoriamo hanno portato a ridurre di due, tre o forse dieci volte il numero di tiri in porta necessari per trovare qualcosa che funzioni bene”, spiega Coley, che ora è professore di ingegneria chimica e informatica al MIT.

Una volta identificate le molecole candidate, il software di Coley propone il modo migliore per produrle. Anche se i chimici “immaginano o sognano una molecola”, dice, capire come sintetizzare qualcosa non è banale: “Dobbiamo comunque produrla”.

A tal fine, il sistema fornisce ai chimici una “ricetta” di passaggi da seguire che probabilmente daranno i massimi risultati. Il lavoro futuro di Coley prevede di capire come aggiungere al mix i robot di laboratorio, in modo che sistemi ancora più automatizzati siano in grado di testare e perfezionare le ricette proposte seguendole effettivamente.

di Russ Juskalian

12 settembre 2023

Catherine De Wolf

ETH Zurich

Catherine De Wolf, 34 anni, sta utilizzando l’intelligenza artificiale per contribuire a ridurre le emissioni e gli sprechi di materiali nel settore delle costruzioni. Il suo obiettivo è quello di favorire la transizione da una filosofia costruttiva “una tantum”, in cui i materiali utilizzati nella costruzione vengono scartati quando un edificio viene demolito, a una circolare, in cui i vecchi materiali da costruzione vengono riutilizzati perché più economici rispetto all’approvvigionamento di nuovi.

I vecchi edifici destinati alla demolizione contengono spesso una grande quantità di elementi costosi e semilavorati come finestre, metallo e legno. Ma poiché nessuno sa esattamente cosa contiene un determinato edificio, di solito è più facile ed economico demolirlo e inviare i rifiuti in discarica. Poi si devono produrre nuovi materiali per le nuove costruzioni, un processo che genera ulteriori emissioni.

“Quello che ho pensato è: se avessimo degli strumenti per scansionare facilmente gli edifici, digitalizzando le dimensioni, il tipo di materiali, le condizioni del materiale?”, dice De Wolf, “e li mettessimo in una sorta di Tinder per i materiali da costruzione riutilizzabili?”.

Per prima cosa, De Wolf e il suo team hanno inserito i dati di Google Street View, le scansioni lidar e i documenti degli edifici in un sistema di intelligenza artificiale che può prevedere quali materiali ogni edificio può contenere e come progettare edifici futuri con quei materiali. Poi lei e il suo team hanno etichettato i materiali recuperati con codici QR, un processo che spera diventi standard quando gli edifici vengono costruiti. I codici QR si collegano a un database che fornisce la storia del materiale e le sue caratteristiche fisiche più importanti.

In un progetto, un team guidato da De Wolf, che è assistant professor di architettura al Politecnico di Zurigo, ha aiutato ad abbinare gli iconici pannelli di vetro del Centre Pompidou di Parigi – che stavano per essere sostituiti in risposta a modifiche normative – con un’azienda che li ha utilizzati per costruire piccole stanze per uffici. In un secondo progetto, ha utilizzato i suoi metodi per creare una cupola geodetica costruita interamente con materiali recuperati da un vecchio magazzino di automobili a Ginevra. Ha in mente di sviluppare un’applicazione che abbini i materiali riutilizzati a progetti futuri.

di Russ Juskalian

12 settembre 2023

Alhussein Fawzi

Google DeepMind

Alhussein Fawzi, 34 anni, è un pioniere nell’uso dell’intelligenza artificiale per accelerare i calcoli fondamentali. Piccoli miglioramenti agli algoritmi più diffusi possono fare un’enorme differenza, riducendo i costi e risparmiando energia su tutti i dispositivi che li eseguono.

Ma individuare le scorciatoie in un codice che è stato studiato da scienziati umani per decenni è difficile. L’intuizione chiave di Fawzi è stata quella di trattare il problema della ricerca di nuovi algoritmi come una sorta di gioco e di utilizzare l’intelligenza artificiale di DeepMind, AlphaZero, per dominarlo.

Per fare delle mosse in un gioco come gli scacchi, AlphaZero cerca tra un numero astronomico di possibilità prima di scegliere la mossa che ha maggiori probabilità di portare a una vittoria. Mettere in fila i passaggi sequenziali di un algoritmo corretto è un po’ come scegliere le mosse in una partita vincente. Come negli scacchi, si tratta di passare in rassegna innumerevoli possibilità per raggiungere un obiettivo.

Utilizzando una versione adattata di AlphaZero, Fawzi e i suoi colleghi hanno trovato un modo per accelerare la moltiplicazione delle matrici, un elemento fondamentale della matematica alla base di molti programmi informatici comuni in settori che vanno dalla grafica alla fisica e all’apprendimento automatico stesso. Hanno scoperto algoritmi più veloci dei precedenti migliori algoritmi sviluppati dall’uomo, battendo un record che resisteva da 50 anni.

Google DeepMind ha utilizzato l’approccio di Fawzi anche per scoprire scorciatoie precedentemente sconosciute negli algoritmi di ordinamento, un altro calcolo fondamentale che viene eseguito trilioni di volte al giorno.

“È sorprendente se si pensa che molti degli algoritmi di base che usiamo oggi sono stati inventati prima dell’era dei computer moderni, la maggior parte su carta”, dice Fawzi. “È utile usare l’apprendimento automatico per cercare di migliorarli”.

di Will Douglas Heaven

12 settembre 2023

Sharon Li

University of Wisconsin – Madison

Nel momento in cui lanciamo i sistemi di intelligenza artificiale dal laboratorio al mondo reale, dobbiamo essere preparati a evitare che questi sistemi si rompano in modi sorprendenti e catastrofici. Sharon Li, assistant professor presso l’Università del Wisconsin, Madison, è una pioniera di una funzione di sicurezza dell’IA chiamata out-of-distribution detection (OOD). Secondo Li, questa funzione aiuta i modelli di intelligenza artificiale a determinare quando devono astenersi dall’agire se si trovano di fronte a qualcosa su cui non sono stati addestrati.

Li ha sviluppato uno dei primi algoritmi per il rilevamento di fuori distribuzione per le reti neurali profonde. Da allora Google ha creato un team dedicato per integrare il rilevamento di OOD nei suoi prodotti. L’anno scorso, l’analisi teorica di Li sul rilevamento di OOD è stata scelta tra oltre 10.000 lavori presentati come documento eccezionale da NeurIPS, una delle più prestigiose conferenze sull’AI.

Attualmente siamo in una corsa all’oro dell’IA e le aziende tecnologiche stanno facendo a gara per rilasciare i loro modelli di IA. Ma la maggior parte dei modelli odierni sono addestrati per identificare cose specifiche e spesso falliscono quando incontrano gli scenari sconosciuti tipici del mondo reale, disordinato e imprevedibile. La loro incapacità di comprendere in modo affidabile ciò che “sanno” e ciò che non “sanno” è il punto debole di molti disastri dell’IA.

L’approccio di Li abbraccia l’incertezza utilizzando l’apprendimento automatico per rilevare i dati sconosciuti nel mondo e progettare modelli di IA per adattarsi al volo. Il rilevamento di dati non conosciuti potrebbe aiutare a prevenire gli incidenti quando le auto autonome si imbattono in oggetti sconosciuti sulla strada, o a rendere i sistemi di IA medica più utili nella ricerca di una nuova malattia. “In tutte queste situazioni, ciò di cui abbiamo davvero bisogno è un modello di apprendimento automatico consapevole della sicurezza, in grado di identificare ciò che non conosce”, afferma Li.

di Melissa Heikkilä

12 settembre 2023

Sasha Luccioni

Hugging Face

Nella corsa a costruire modelli di IA sempre più grandi e migliori, le aziende tecnologiche nascondono uno sporco segreto: la carbon footprint dell’IA. I sistemi di IA richiedono enormi quantità di energia e acqua per essere costruiti e per funzionare e, una volta installati, possono emettere diverse tonnellate di CO2 al giorno.

Sasha Luccioni, 33 anni, ricercatrice presso la startup di AI Hugging Face, ha sviluppato un modo migliore per le aziende tecnologiche di stimare e misurare l’impronta carbonica dei modelli di AI. Il metodo di Luccioni aiuta le aziende a calcolare le emissioni di anidride carbonica dei loro sistemi di IA in modo da tenere conto dell’impatto sul clima durante il loro intero ciclo di vita, compresi l’energia, i materiali e la potenza di calcolo necessari per addestrarli. Per esempio, il suo team ha scoperto che l’addestramento, la costruzione e il funzionamento del modello linguistico di IA BLOOM di Hugging Face hanno generato circa 50 tonnellate di emissioni di anidride carbonica.

Il suo lavoro “rappresenta l’analisi più approfondita, onesta e consapevole della carbon footprint di un modello ML di grandi dimensioni”, ha dichiarato a novembre al MIT Technology Review Emma Strubell, assistant profesor presso la scuola di informatica della Carnegie Mellon University, autrice di un documento fondamentale del 2019 sull’impatto dell’IA sul clima.

Luccioni sostiene che il suo approccio aiuta le persone a fare scelte più informate sull’IA. Afferma che nessun altro ha effettuato una verifica così approfondita delle emissioni di un modello linguistico. Code Carbon, lo strumento che ha contribuito a creare, è stato scaricato oltre 300.000 volte.

“Comprendere l’impatto ambientale di questi modelli è davvero molto importante per cercare di anticipare le cose e renderle più efficienti”, afferma l’autrice.

di Melissa Heikkilä

12 settembre 2023

Pranav Rajpurkar

Harvard Medical School

Pranav Rajpurkar, 28 anni, ha sviluppato un modo per insegnare all’intelligenza artificiale a interpretare accuratamente le immagini mediche senza l’aiuto dell’uomo.

I suoi sistemi sono già in grado di fornire prestazioni al livello degli esperti umani, segnalando patologie che altrimenti potrebbero sfuggire e prevenendo procedure mediche non necessarie a causa di falsi positivi. Il modello più recente di Rajpurkar, chiamato CheXzero, potrebbe migliorare ulteriormente le loro prestazioni e ampliare i tipi di immagini che possono gestire.

Quando Rajpurkar ha introdotto un primo modello che permetteva ai computer di leggere le radiografie del torace nel 2018, c’era un problema: la carenza di dati. All’epoca, lui e altri operatori del settore si affidavano ai radiologi per etichettare manualmente le immagini che i sistemi AI utilizzavano per l’apprendimento. Poiché una persona impiega pochi minuti per etichettare una singola immagine, mentre i sistemi di IA necessitano di centinaia di migliaia di immagini per capire cosa stanno guardando, il campo si è presto arenato.

Il nuovo approccio di Rajpurkar evita del tutto gli etichettatori umani, confrontando una serie di immagini mediche – prese da qualsiasi serie di dati privati o pubblici – con i referti radiologici che quasi sempre le accompagnano. Il sistema è in grado di abbinare automaticamente le immagini ai problemi che i referti identificano per iscritto. Ciò significa che CheXzero può utilizzare enormi database per imparare a individuare potenziali problemi senza che l’uomo debba prima preparare i dati, una tecnica nota come “self-supervision”.

Rajpurkar, che è assistant professor di informatica biomedica presso la Harvard Medical School, afferma che il suo sogno è quello di costruire un sistema in grado di assorbire le cartelle cliniche di un paziente e di identificare i problemi che i medici potrebbero aver tralasciato.

di Russ Juskalian

12 settembre 2023

Irene Solaiman

Hugging Face

Quando viene rilasciato un nuovo modello di intelligenza artificiale generativa, il chatbot o il generatore di immagini, o il modello sottostante, ricevono molta più attenzione rispetto a dettagli quali le modalità e i destinatari del modello, ad esempio se è open-source o concesso in licenza per uso commerciale. Ma queste decisioni hanno conseguenze profonde.

Una maggiore apertura, ad esempio, offre maggiori opportunità di verifica e valutazione dei modelli, ma anche la possibilità per i criminali informatici di trarne vantaggio. Sistemi più chiusi possono concentrare il potere ma limitare il potenziale di danno.

Nel 2019, Irene Solaiman, all’epoca ricercatrice e responsabile delle politiche pubbliche di OpenAI, ha guidato un nuovo approccio al rilascio di GPT-2, un predecessore di ChatGPT, valutando come bilanciare alcune salvaguardie in modo da ridurre al minimo i danni e aumentare al contempo l’apertura. Solaiman ha raccomandato di rilasciare i nuovi modelli in fasi successive, in modo da avere più tempo per testarli e per creare delle protezioni. OpenAI, Microsoft e Meta stanno utilizzando questo approccio rispettivamente per ChatGPT, la nuova ricerca di Bing e LLaMA.

Solaiman, 28 anni, ha lasciato OpenAI e ora lavora presso la startup Hugging Face, dove ricopre il ruolo di global public policy director. Continua a lavorare per costruire processi chiari e standardizzati per il rilascio dei futuri modelli di IA. Sta continuando a lavorare anche su altri aspetti della sicurezza dell’IA, tra cui lo sviluppo di modi per garantire che i valori culturali di una comunità siano presi in considerazione prima che i nuovi sistemi vengano distribuiti in quel luogo.

In definitiva, ciò che la motiva è il desiderio di assicurarsi che l’IA generativa funzioni bene non solo per i suoi sviluppatori, ma anche per “le persone che non si interfacciano con i sistemi di IA generativa, ma che probabilmente saranno influenzate dall’IA”. In altre parole, tutti.

di Eileen Guo

12 settembre 2023

Richard Zhang

Adobe

Richard Zhang, 34 anni, ricercatore senior presso Adobe, ha inventato i visual similarity algorithms alla base di modelli di IA generativa di immagini come Stable Diffusion e Stylegan.

Zhang ha iniziato a esplorare l’IA generativa mentre completava il suo dottorato di ricerca alla UC Berkeley, dove ha creato un algoritmo ampiamente utilizzato per colorare le foto in bianco e nero (questo lavoro è diventato lo strumento Colorize di Adobe Photoshop).

Durante questo lavoro, Zhang si è reso conto che non esisteva una “buona metrica oggettiva” per addestrare il sistema di intelligenza artificiale. “È davvero difficile scrivere una mappa di ciò che fa apparire buona un’immagine per una persona”, afferma, sia che si tratti di colori realistici o di chiarezza dell’immagine.

La maggior parte degli algoritmi utilizza modelli matematici per misurare la somiglianza di immagini diverse agli occhi degli esseri umani, ma la percezione umana è complessa e non può essere facilmente catturata da un problema matematico. Così Zhang ha costruito qualcosa di meglio: LPIPS, il suo progetto più influente fino ad oggi.

LPIPS è unico nel suo genere perché incorpora nei suoi calcoli grandi serie di dati di giudizi percettivi umani. Questo gli ha permesso di superare tutti i modelli precedenti, molti dei quali in uso da decenni, e di diventare il nuovo standard per la somiglianza percettiva. Senza LPIPS, l’odierna IA per la generazione di immagini non sarebbe possibile.

Da quando è entrato a far parte di Adobe nel 2018, la ricerca di Zhang è stata incorporata in strumenti software commerciali, tra cui landscape mixer e smart portrait. Zhang ha anche lavorato ad algoritmi che aiutano le persone a rilevare le immagini generate dall’IA, che ora fanno parte degli strumenti forensi di Adobe Stock.

di Eileen Guo

12 settembre 2023