I sistemi di intelligenza artificiale in grado di risolvere calcoli complessi potrebbero permetterci di costruire strumenti di IA più potenti.
La scorsa settimana il mondo dell’intelligenza artificiale era in fermento per un nuovo articolo pubblicato su Nature da Google DeepMind, in cui si racconta come il laboratorio sia riuscito a creare un sistema di intelligenza artificiale in grado di risolvere complessi problemi di geometria. Denominato AlphaGeometry, il sistema combina un modello linguistico con un tipo di IA chiamato motore simbolico, che utilizza simboli e regole logiche per fare deduzioni, scrive la collega June Kim. Per saperne di più su AlphaGeometry, cliccate qui.
È la seconda volta negli ultimi mesi che il mondo dell’IA si entusiasma per la matematica. Le voci di corridoio si sono scatenate lo scorso novembre, quando è stato riferito che il dramma in seno al consiglio di amministrazione di OpenAI, che ha visto il CEO Sam Altman temporaneamente estromesso, è stato causato da una nuova e potente scoperta dell’IA. È stato riferito che il sistema di intelligenza artificiale in questione si chiamava Q* ed era in grado di risolvere complessi calcoli matematici. (L’azienda non ha rilasciato commenti su Q* e non sappiamo ancora se ci sia o meno un legame con la cacciata di Altman). Ho analizzato il dramma e il clamore di questa storia.
Non è necessario essere appassionati di matematica per capire perché queste cose sono potenzialmente molto interessanti. La matematica è molto, molto difficile per i modelli di intelligenza artificiale. La matematica complessa, come la geometria, richiede sofisticate capacità di ragionamento e molti ricercatori di IA ritengono che la capacità di decifrarla potrebbe preannunciare sistemi più potenti e intelligenti. Innovazioni come AlphaGeometry dimostrano che ci stiamo avvicinando a macchine con capacità di ragionamento più simili a quelle umane. Questo potrebbe permetterci di costruire strumenti di intelligenza artificiale più potenti, che potrebbero essere utilizzati per aiutare i matematici a risolvere le equazioni e, forse, per creare migliori strumenti di tutoraggio.
Un lavoro come questo può aiutarci a usare i computer per prendere decisioni migliori ed essere più logici, afferma Conrad Wolfram di Wolfram Research. L’azienda è responsabile di WolframAlpha, un motore di risposta in grado di gestire domande matematiche complesse. L’ho incontrato la scorsa settimana ad Atene in occasione di EmTech Europe. (In aprile si terrà un’altra edizione a Londra: se volete unirvi a noi, io ci sarò).
Ma c’è una fregatura. Per poter sfruttare i vantaggi dell’IA, anche gli esseri umani devono adattarsi. Dobbiamo comprendere meglio il funzionamento della tecnologia, in modo da poter affrontare i problemi in un modo che i computer possano risolvere.
“Man mano che i computer migliorano, gli esseri umani devono adattarsi a questo e sapere di più, fare più esperienza per capire se funziona, dove non funziona, dove ci si può fidare o non ci si può fidare”, dice Wolfram.
Wolfram sostiene che, mentre entriamo nell’era dell’intelligenza artificiale con computer sempre più potenti, gli esseri umani devono adottare il “pensiero computazionale”, che prevede la definizione e la comprensione di un problema e la sua scomposizione in pezzi in modo che un computer possa calcolare la risposta.
Egli paragona questo momento alla nascita dell’alfabetizzazione di massa alla fine del XVIII secolo, che ha posto fine all’epoca in cui solo l’élite sapeva leggere e scrivere.
“I Paesi che lo hanno fatto per primi hanno beneficiato in modo massiccio della loro rivoluzione industriale… Ora abbiamo bisogno di un’alfabetizzazione computazionale di massa, che è l’equivalente di quella avvenuta in passato”.