Sapete già che gli agenti e i modelli linguistici di piccole dimensioni sono le prossime grandi novità. Ecco altre cinque tendenze da tenere d’occhio quest’anno.
Negli ultimi due anni ci siamo cimentati nel tentativo di prevedere le novità dell’IA. Un gioco da ragazzi, vista la velocità con cui si muove questo settore. Ma siamo in piena attività e lo stiamo facendo di nuovo.
Qual è stato il nostro punteggio l’ultima volta? I nostri quattro trend caldi da tenere d’occhio nel 2024 includevano quelli che chiamavamo chatbot personalizzati – app di aiuto interattive alimentate da modelli linguistici multimodali di grandi dimensioni (verifica: non lo sapevamo ancora, ma stavamo parlando di ciò che tutti ora chiamano agenti, la cosa più in voga nell’IA in questo momento); video generativi (verifica: poche tecnologie sono migliorate così rapidamente negli ultimi 12 mesi, con OpenAI e Google DeepMind che hanno rilasciato i loro modelli di generazione video di punta, Sora e Veo, a distanza di una settimana l’uno dall’altro questo dicembre); e robot più generici in grado di svolgere una gamma più ampia di compiti (verifica: i benefici dei modelli linguistici di grandi dimensioni continuano a riversarsi su altri settori dell’industria tecnologica, e la robotica è in cima alla lista).
Avevamo anche detto che la disinformazione elettorale generata dall’intelligenza artificiale sarebbe stata ovunque, ma qui – per fortuna – ci siamo sbagliati. Quest’anno ci sono state molte cose per cui torcersi le mani, ma i deepfakes politici sono stati pochi.
Cosa succederà nel 2025? Ignoreremo l’ovvio: potete scommettere che gli agenti e i modelli linguistici più piccoli e più efficienti continueranno a influenzare il settore. Ecco invece cinque scelte alternative del nostro team AI.
1. Campi da gioco virtuali generativi
Se il 2023 è stato l’anno delle immagini generative e il 2024 è stato l’anno dei video generativi, cosa verrà dopo? Se avete indovinato i mondi virtuali generativi (ovvero i videogiochi), date il cinque a tutti.
Abbiamo avuto un piccolo assaggio di questa tecnologia a febbraio, quando Google DeepMind ha rivelato un modello generativo chiamato Genie in grado di prendere un’immagine fissa e trasformarla in un gioco a piattaforme 2D a scorrimento laterale con cui i giocatori possono interagire. A dicembre, l’azienda ha rivelato Genie 2, un modello in grado di trasformare un’immagine iniziale in un intero mondo virtuale.
Altre aziende stanno costruendo tecnologie simili. A ottobre, le startup di intelligenza artificiale Decart ed Etched hanno rivelato un hack non ufficiale di Minecraft in cui ogni fotogramma del gioco viene generato al volo mentre si gioca. E World Labs, una startup cofondata da Fei-Fei Li – creatore di ImageNet, il vasto set di dati di foto che ha dato il via al boom del deep-learning – sta costruendo quelli che chiama large world models, o LWM.
Un’applicazione ovvia sono i videogiochi. Questi primi esperimenti hanno un tono giocoso e le simulazioni generative in 3D potrebbero essere utilizzate per esplorare concetti di design per nuovi giochi, trasformando uno schizzo in un ambiente giocabile al volo. Questo potrebbe portare a tipi di giochi completamente nuovi.
Ma potrebbero anche essere utilizzate per addestrare i robot. World Labs vuole sviluppare la cosiddetta intelligenza spaziale, ovvero la capacità delle macchine di interpretare e interagire con il mondo quotidiano. Ma ai ricercatori di robotica mancano dati validi sugli scenari del mondo reale con cui addestrare questa tecnologia. La creazione di innumerevoli mondi virtuali e l’inserimento in essi di robot virtuali che imparano per tentativi ed errori potrebbe aiutare a rimediare a questa mancanza.
– Will Douglas Heaven
2. Modelli linguistici di grandi dimensioni che “ragionano”
L’entusiasmo era giustificato. Quando OpenAI ha presentato o1 a settembre, ha introdotto un nuovo paradigma nel funzionamento dei modelli linguistici di grandi dimensioni. Due mesi dopo, l’azienda ha spinto quel paradigma in avanti sotto quasi tutti i punti di vista con o3, un modello che potrebbe rimodellare questa tecnologia per sempre.
La maggior parte dei modelli, compreso il GPT-4, fiore all’occhiello di OpenAI, emette la prima risposta che gli viene in mente. A volte è corretta, a volte no. Ma i nuovi modelli dell’azienda sono addestrati a elaborare le loro risposte passo dopo passo, scomponendo i problemi difficili in una serie di problemi più semplici. Quando un approccio non funziona, ne provano un altro. Questa tecnica, nota come “ragionamento” (sì, sappiamo bene quanto questo termine sia carico), può rendere la tecnologia più accurata, soprattutto per i problemi di matematica, fisica e logica.
È fondamentale anche per gli agenti.
A dicembre, Google DeepMind ha rivelato un nuovo agente sperimentale di navigazione web chiamato Mariner. Nel bel mezzo di una dimostrazione in anteprima che l’azienda ha fornito al MIT Technology Review, Mariner sembra essersi bloccato. Megha Goel, product manager dell’azienda, aveva chiesto all’agente di trovarle una ricetta di biscotti natalizi che assomigliasse a quelli della foto che gli aveva fornito. Mariner ha trovato una ricetta sul web e ha iniziato ad aggiungere gli ingredienti al carrello della spesa online di Goel.
Poi si è bloccato: non riusciva a capire quale tipo di farina scegliere. Goel ha osservato Mariner mentre spiegava i suoi passi in una finestra di chat: “Dice: ‘Userò il pulsante Indietro del browser per tornare alla ricetta’”.
È stato un momento straordinario. Invece di scontrarsi con un muro, l’agente aveva scomposto il compito in azioni separate e ne aveva scelta una che avrebbe potuto risolvere il problema. Capire che è necessario fare clic sul pulsante Indietro può sembrare elementare, ma per un bot senza cervello è simile alla scienza missilistica. E ha funzionato: Mariner è tornato alla ricetta, ha confermato il tipo di farina e ha continuato a riempire il cestino di Goel.
Google DeepMind sta anche realizzando una versione sperimentale di Gemini 2.0, il suo ultimo modello linguistico di grandi dimensioni, che utilizza questo approccio graduale alla risoluzione dei problemi, chiamato Gemini 2.0 Flash Thinking.
Ma OpenAI e Google sono solo la punta dell’iceberg. Molte aziende stanno costruendo modelli linguistici di grandi dimensioni che utilizzano tecniche simili, rendendoli migliori in un’intera gamma di compiti, dalla cucina al coding. Aspettatevi molto più rumore sul ragionamento (lo sappiamo, lo sappiamo) quest’anno.
– Will Douglas Heaven
3. È tempo di boom per l’IA nella scienza
Uno degli usi più interessanti dell’IA è quello di accelerare le scoperte nelle scienze naturali. Forse la più grande conferma del potenziale dell’IA su questo fronte è arrivata lo scorso ottobre, quando l’Accademia reale svedese delle scienze ha assegnato il premio Nobel per la chimica a Demis Hassabis e John M. Jumper di Google DeepMind per aver costruito lo strumento AlphaFold, in grado di risolvere il ripiegamento delle proteine, e a David Baker per aver costruito strumenti che aiutano a progettare nuove proteine.
Ci aspettiamo che questa tendenza continui l’anno prossimo e che si vedano sempre più set di dati e modelli mirati specificamente alla scoperta scientifica. Le proteine erano l’obiettivo perfetto per l’IA, perché il settore disponeva di eccellenti serie di dati esistenti su cui i modelli di IA potevano essere addestrati.
È partita la caccia alla prossima grande novità. Un’area potenziale è la scienza dei materiali. Meta ha rilasciato enormi serie di dati e modelli che potrebbero aiutare gli scienziati a utilizzare l’intelligenza artificiale per scoprire nuovi materiali molto più velocemente e a dicembre Hugging Face, insieme alla startup Entalpic, ha lanciato LeMaterial , un progetto open-source che mira a semplificare e accelerare la ricerca sui materiali. Il loro primo progetto è un set di dati che unifica, pulisce e standardizza i principali set di dati sui materiali.
I produttori di modelli di intelligenza artificiale sono anche desiderosi di proporre i loro prodotti generativi come strumenti di ricerca per gli scienziati. OpenAI ha permesso agli scienziati di testare il suo ultimo modello o1 e di vedere come potrebbe aiutarli nella ricerca. I risultati sono stati incoraggianti
Avere uno strumento di intelligenza artificiale in grado di operare in modo simile a uno scienziato è una delle fantasie del settore tecnologico. In un manifesto pubblicato nell’ottobre dello scorso anno, il fondatore di Anthropic Dario Amodei ha sottolineato come la scienza, in particolare la biologia, sia una delle aree chiave in cui un’IA potente potrebbe essere utile. Amodei ipotizza che in futuro l’IA potrebbe essere non solo un metodo di analisi dei dati, ma anche un “biologo virtuale che svolge tutti i compiti dei biologi”. Siamo ancora lontani da questo scenario. Ma l’anno prossimo potremmo assistere a passi importanti in tal senso.
– Melissa Heikkilä
4. Le aziende di IA diventano più amichevoli con la sicurezza nazionale
Le aziende di intelligenza artificiale disposte a prestare i loro strumenti per la sorveglianza delle frontiere, la raccolta di informazioni e altri compiti di sicurezza nazionale possono fare un sacco di soldi.
Le forze armate statunitensi hanno lanciato una serie di iniziative che dimostrano il loro desiderio di adottare l’intelligenza artificiale, dal programma Replicator – che, ispirato dalla guerra in Ucraina, promette di spendere un miliardo di dollari in piccoli droni – all’Artificial Intelligence Rapid Capabilities Cell, un’unità che introduce l’intelligenza artificiale in tutto, dal processo decisionale sul campo di battaglia alla logistica. Le forze armate europee sono sotto pressione per aumentare i loro investimenti tecnologici, a causa delle preoccupazioni che l’amministrazione di Donald Trump taglierà le spese per l’Ucraina. Anche le crescenti tensioni tra Taiwan e la Cina pesano sulla mente dei pianificatori militari.
Nel 2025, queste tendenze continueranno a essere una manna per le aziende di tecnologia della difesa come Palantir, Anduril e altre, che stanno capitalizzando i dati militari classificati per addestrare i modelli di intelligenza artificiale.
Le tasche profonde dell’industria della difesa tenteranno anche le aziende di AI tradizionali. A dicembre OpenAI ha annunciato la sua collaborazione con Anduril per un programma di abbattimento di droni, completando così una svolta di un anno rispetto alla sua politica di non collaborazione con l’esercito. Si unisce alla schiera di Microsoft, Amazon e Google, che da anni collaborano con il Pentagono.
Altri concorrenti dell’IA, che stanno spendendo miliardi per addestrare e sviluppare nuovi modelli, nel 2025 dovranno affrontare maggiori pressioni per pensare seriamente alle entrate. È possibile che trovino un numero sufficiente di clienti non appartenenti al settore della difesa che pagheranno profumatamente per agenti di IA in grado di gestire compiti complessi, o industrie creative disposte a spendere in generatori di immagini e video.
Ma saranno anche sempre più tentate di mettersi in gioco per ottenere i lucrosi contratti del Pentagono. Ci si aspetta che le aziende si chiedano se lavorare a progetti di difesa possa essere visto come una contraddizione con i loro valori. La motivazione che ha spinto OpenAI a cambiare la sua posizione è che “le democrazie dovrebbero continuare ad avere un ruolo guida nello sviluppo dell’intelligenza artificiale”, ha scritto l’azienda, sostenendo che prestare i suoi modelli alle forze armate farebbe avanzare questo obiettivo. Nel 2025, vedremo altri seguire il suo esempio.
– James O’Donnell
5. Nvidia vede una concorrenza legittima
Per gran parte dell’attuale boom dell’IA, se eri una startup tecnologica che voleva cimentarsi nella creazione di un modello di IA, Jensen Huang era il tuo uomo. In qualità di CEO di Nvidia, la società di maggior valore al mondo, Huang ha aiutato l’azienda a diventare il leader indiscusso dei chip utilizzati sia per addestrare i modelli di IA sia per inviare un ping a un modello quando qualcuno lo utilizza, il cosiddetto “inferencing”.
Una serie di forze potrebbe cambiare le cose nel 2025. Per esempio, colossi concorrenti come Amazon, Broadcom, AMD e altri hanno investito molto in nuovi chip e ci sono prime indicazioni che questi potrebbero competere da vicino con quelli di Nvidia, in particolare per l’inferenza, dove il vantaggio di Nvidia è meno solido.
Un numero crescente di startup sta attaccando Nvidia anche da un altro punto di vista. Piuttosto che cercare di migliorare marginalmente i progetti di Nvidia, startup come Groq stanno facendo scommesse più rischiose su architetture di chip completamente nuove che, con un tempo sufficiente, promettono di fornire un addestramento più efficiente o efficace. Nel 2025 questi esperimenti saranno ancora nelle fasi iniziali, ma è possibile che un concorrente di spicco cambi l’idea che i migliori modelli di intelligenza artificiale si affidino esclusivamente ai chip Nvidia.
Alla base di questa competizione, continuerà la guerra dei chip geopolitici. Finora questa guerra si è basata su due strategie. Da un lato, l’Occidente cerca di limitare le esportazioni in Cina di chip di alta qualità e delle tecnologie per produrli. Dall’altro, sforzi come la legge statunitense CHIPS mirano a incrementare la produzione interna di semiconduttori.
Donald Trump potrebbe inasprire i controlli sulle esportazioni e ha promesso tariffe massicce su tutti i beni importati dalla Cina. Nel 2025, tali tariffe porterebbero Taiwan, su cui gli Stati Uniti fanno molto affidamento grazie al produttore di chip TSMC, al centro delle guerre commerciali. Questo perché Taiwan ha dichiarato che aiuterà le aziende cinesi a trasferirsi sull’isola per evitare le tariffe proposte. Questo potrebbe attirare ulteriori critiche da parte di Trump, che ha espresso frustrazione per le spese sostenute dagli Stati Uniti per difendere Taiwan dalla Cina.
Non è chiaro come queste forze si manifesteranno, ma ciò non farà altro che incentivare ulteriormente i produttori di chip a ridurre la dipendenza da Taiwan, che è l’intero scopo del CHIPS Act. Con l’inizio della circolazione delle spese del disegno di legge, l’anno prossimo si potrebbe verificare per la prima volta se la legge sta incrementando concretamente la produzione nazionale di chip.
– James O’Donnell