Skip to main content
ERIC RISBERG/ASSOCIATED PRESS

Se il nuovo modello di OpenAI è in grado di risolvere la matematica delle elementari, potrebbe aprire la strada a sistemi più potenti.

Dopo i drammatici eventi della scorsa settimana in OpenAI, si sono scatenate le voci sul perché il direttore scientifico dell’azienda, Ilya Sutskever, e il suo consiglio di amministrazione abbiano deciso di estromettere l’amministratore delegato Sam Altman.

Sebbene non si conoscano ancora tutti i dettagli, è stato riferito che i ricercatori di OpenAI hanno fatto una “scoperta” nell’IA che ha allarmato i membri dello staff. Reuters e The Information riportano entrambi che i ricercatori hanno trovato un nuovo modo per creare potenti sistemi di IA e hanno creato un nuovo modello, chiamato Q* (pronunciato Q star), in grado di eseguire calcoli a livello di scuola elementare. Secondo le persone che hanno parlato con Reuters, alcuni membri di OpenAI ritengono che questa potrebbe essere una pietra miliare nella ricerca dell’azienda di costruire un’intelligenza artificiale generale, un concetto molto pubblicizzato che si riferisce a un sistema di IA più intelligente degli esseri umani. L’azienda non ha voluto commentare Q*.

I social media sono pieni di speculazioni e di clamore eccessivo, per cui ho chiamato alcuni esperti per scoprire quanto sia davvero importante un’eventuale svolta nella matematica e nell’IA.

Per anni i ricercatori hanno cercato di far sì che i modelli di intelligenza artificiale risolvessero problemi matematici. Modelli linguistici come ChatGPT e GPT-4 possono fare un po’ di matematica, ma non molto bene o in modo affidabile. Attualmente non disponiamo degli algoritmi e nemmeno delle architetture giuste per poter risolvere i problemi matematici in modo affidabile utilizzando l’IA, afferma Wenda Li, docente di IA presso l’Università di Edimburgo. L’apprendimento profondo e i trasformatori (un tipo di rete neurale), che è ciò che usano i modelli linguistici, sono eccellenti nel riconoscere i modelli, ma questo da solo probabilmente non è sufficiente, aggiunge Li.

Secondo Li, la matematica è un punto di riferimento per il ragionamento. Una macchina in grado di ragionare sulla matematica potrebbe, in teoria, imparare a svolgere altri compiti che si basano su informazioni esistenti, come scrivere codice informatico o trarre conclusioni da un articolo di giornale. La matematica è una sfida particolarmente ardua perché richiede che i modelli di intelligenza artificiale abbiano la capacità di ragionare e di comprendere realmente ciò con cui hanno a che fare.

Un sistema di intelligenza artificiale generativa in grado di fare matematica in modo affidabile dovrebbe avere una padronanza molto solida delle definizioni concrete di particolari concetti che possono diventare molto astratti. Molti problemi matematici richiedono anche un certo livello di pianificazione in più fasi, come afferma Katie Collins, ricercatrice presso l’Università di Cambridge, specializzata in matematica e IA. In effetti, Yann LeCun, chief AI scientist di Meta, ha scritto su X e LinkedIn durante il fine settimana che pensa che Q* sia probabilmente un “tentativo di pianificazione di OpenAI”.

Le persone che si preoccupano se l’IA rappresenti un rischio esistenziale per gli esseri umani (una delle paure fondanti di OpenAI), teme che tali capacità possano portare a un’IA disonesta. I problemi di sicurezza potrebbero sorgere se a questi sistemi di IA venisse permesso di stabilire i propri obiettivi e di iniziare a interfacciarsi in qualche modo con il mondo fisico o digitale reale, dice Collins.

Ma anche se la capacità matematica ci facesse fare un passo avanti verso sistemi di intelligenza artificiale più potenti, la soluzione di questo tipo di problemi matematici non segna la nascita di una superintelligenza.

“Non credo che ci porti immediatamente all’IA o a situazioni spaventose”, dice Collins.  È anche molto importante sottolineare che tipo di problemi matematici l’IA sta risolvendo, aggiunge.

“Risolvere i problemi matematici della scuola elementare è molto, molto diverso dallo spingere i confini della matematica al livello di ciò che può fare un vincitore della medaglia Fields”, dice Collins, riferendosi al massimo premio di matematica. 

La ricerca sull’apprendimento automatico si è concentrata sulla risoluzione di problemi elementari, ma i sistemi di IA più avanzati non hanno ancora superato questa sfida. Alcuni modelli di IA falliscono su problemi matematici molto semplici, ma poi possono eccellere in problemi molto difficili, dice Collins. OpenAI, per esempio, ha sviluppato strumenti dedicati in grado di risolvere problemi difficili posti nelle competizioni per i migliori studenti di matematica delle scuole superiori, ma questi sistemi superano gli esseri umani solo occasionalmente. 

Tuttavia, la costruzione di un sistema di intelligenza artificiale in grado di risolvere le equazioni matematiche è uno sviluppo interessante, se è davvero questo che Q* è in grado di fare. Una comprensione più approfondita della matematica potrebbe aprire applicazioni per aiutare la ricerca scientifica e l’ingegneria, ad esempio. La capacità di generare risposte matematiche potrebbe aiutarci a sviluppare un tutoraggio personalizzato migliore, o aiutare i matematici a fare l’algebra più velocemente o a risolvere problemi più complicati.

Non è nemmeno la prima volta che un nuovo modello suscita l’entusiasmo dell’AGI. Proprio l’anno scorso, i tecnici dicevano le stesse cose su Gato di Google DeepMind un modello di intelligenza artificiale “generalista” in grado di giocare con i videogiochi Atari, di scrivere didascalie sulle immagini, di chattare e di impilare blocchi con un vero braccio robotico. All’epoca, alcuni ricercatori di IA sostenevano che DeepMind fosse “sull’orlo” dell’IA grazie alla capacità di Gato di fare bene così tante cose diverse. Stesso hype, diverso laboratorio di IA.

E sebbene possa essere un’ottima pubblicità, questi cicli di hype fanno più male che bene all’intero settore, distraendo le persone dai problemi reali e tangibili dell’IA. Le voci su un nuovo potente modello di IA potrebbero anche essere un enorme autogol per il settore tecnologico avverso alle normative. L’Unione Europea, ad esempio, è molto vicina alla finalizzazione della sua legge sull’IA. Una delle più grandi battaglie in corso tra i legislatori è se dare alle aziende tecnologiche più potere per regolare i modelli di IA all’avanguardia per conto proprio.

Il consiglio di amministrazione di OpenAI è stato concepito come un meccanismo di governance interno all’azienda per impedire il lancio di tecnologie dannose. Il dramma della settimana scorsa in seno al consiglio di amministrazione ha dimostrato che in queste aziende prevarrà sempre il profitto. E renderà anche più difficile dimostrare perché si debba affidare loro l’autoregolamentazione. Legislatori, prendete nota.