
I nostri autori specializzati in IA fanno le loro grandi scommesse per il prossimo anno: ecco cinque tendenze calde da tenere d’occhio.
In un settore in costante evoluzione, azzardare previsioni sul futuro può sembrare avventato. (Bolla dell’IA? Quale bolla dell’IA?) Ma negli ultimi anni abbiamo fatto proprio questo e lo stiamo facendo di nuovo.
Come siamo andati l’ultima volta? Abbiamo selezionato cinque tendenze calde dell’IA da tenere d’occhio nel 2025, tra cui quelli che abbiamo chiamato “parchi giochi virtuali generativi“, ovvero modelli di mondo (vedi: da Genie 3 di Google DeepMind a Marble di World Labs, la tecnologia in grado di generare ambienti virtuali realistici al volo continua a migliorare); i cosiddetti modelli di ragionamento (vedi: c’è bisogno di aggiungere altro? I modelli di ragionamento sono rapidamente diventati il nuovo paradigma per la risoluzione dei problemi di alto livello); un boom dell’IA per la scienza (vedi: OpenAI sta seguendo l’esempio di Google DeepMind creando un team dedicato proprio a questo); aziende di IA più vicine alla sicurezza nazionale (controllare: OpenAI ha cambiato posizione sull’uso della sua tecnologia per la guerra e ha firmato un accordo con la startup di tecnologia per la difesa Anduril per aiutarla a abbattere i droni sul campo di battaglia); e una concorrenza legittima per Nvidia (controllare, più o meno: la Cina sta puntando tutto sullo sviluppo di chip IA avanzati, ma il dominio di Nvidia sembra ancora inattaccabile, almeno per ora).
Cosa ci aspetta quindi nel 2026? Ecco le nostre grandi scommesse per i prossimi 12 mesi.
Più prodotti della Silicon Valley saranno basati su LLM cinesi
L’anno scorso è stato un anno importante per i modelli open source cinesi. A gennaio, DeepSeek ha rilasciato R1, il suo modello di ragionamento open source, e ha stupito il mondo con ciò che un’azienda relativamente piccola in Cina poteva fare con risorse limitate. Alla fine dell’anno, “DeepSeek moment” era diventato un’espressione spesso utilizzata da imprenditori, osservatori e sviluppatori di IA, una sorta di benchmark ambizioso.
È stata la prima volta che molte persone hanno capito di poter provare le prestazioni di un’IA di alto livello senza passare attraverso OpenAI, Anthropic o Google.
I modelli open-weight come R1 consentono a chiunque di scaricare un modello ed eseguirlo sul proprio hardware. Sono anche più personalizzabili, consentendo ai team di modificare i modelli attraverso tecniche come la distillazione e il pruning. Ciò è in netto contrasto con i modelli “chiusi” rilasciati dalle principali aziende americane, dove le funzionalità di base rimangono proprietarie e l’accesso è spesso costoso.
Di conseguenza, i modelli cinesi sono diventati una scelta facile. I rapporti di CNBC e Bloomberg suggeriscono che le startup statunitensi hanno sempre più riconosciuto e abbracciato ciò che possono offrire.
Un gruppo di modelli molto popolare è Qwen, creato da Alibaba, la società dietro la più grande piattaforma di e-commerce cinese, Taobao. Qwen2.5-1.5B-Instruct da solo ha 8,85 milioni di download, rendendolo uno degli LLM pre-addestrati più utilizzati. La famiglia Qwen copre un’ampia gamma di dimensioni di modelli insieme a versioni specializzate ottimizzate per la matematica, la codifica, la visione e il seguire le istruzioni, un’ampiezza che l’ha aiutata a diventare un motore open source.
Altre aziende cinesi di IA che in precedenza erano incerte sull’impegno nell’open source stanno seguendo l’esempio di DeepSeek. Tra queste spiccano GLM di Zhipu e Kimi di Moonshot. La concorrenza ha anche spinto le aziende americane ad aprirsi, almeno in parte. Ad agosto, OpenAI ha rilasciato il suo primo modello open source. A novembre, l’Allen Institute for AI, un’organizzazione no profit con sede a Seattle, ha rilasciato il suo ultimo modello open source, Olmo 3.
Nonostante il crescente antagonismo tra Stati Uniti e Cina, l’adozione quasi unanime dell’open source da parte delle aziende cinesi di IA ha fatto guadagnare loro la fiducia della comunità globale dell’IA e un vantaggio competitivo a lungo termine. Nel 2026, ci si aspetta che un numero maggiore di app della Silicon Valley venga silenziosamente distribuito sulla base di modelli aperti cinesi e che il ritardo tra le versioni cinesi e quelle occidentali continui a ridursi, passando da mesi a settimane e talvolta anche meno.
—Caiwei Chen
Gli Stati Uniti affronteranno un altro anno di braccio di ferro normativo
La battaglia sulla regolamentazione dell’intelligenza artificiale sta per arrivare alla resa dei conti. L’11 dicembre, il presidente Donald Trump ha firmato un ordine esecutivo volto a neutralizzare le leggi statali sull’IA, una mossa intesa a impedire agli Stati di tenere sotto controllo questo settore in crescita. Nel 2026 ci si aspetta un’intensificazione della guerra politica. La Casa Bianca e gli Stati si scontreranno su chi avrà il potere di governare questa tecnologia in forte espansione, mentre le aziende di IA condurranno una feroce campagna di lobbying per abbattere le normative, sostenendo che un mosaico di leggi statali soffocherà l’innovazione e ostacolerà gli Stati Uniti nella corsa agli armamenti dell’IA contro la Cina.
In base al decreto presidenziale di Trump, gli Stati potrebbero temere di essere citati in giudizio o di vedersi privare dei finanziamenti federali se si scontrano con la sua visione di una regolamentazione leggera. I grandi Stati democratici come la California, che ha appena promulgato la prima legge pionieristica sull’IA che obbliga le aziende a pubblicare i test di sicurezza dei loro modelli di IA, porteranno la battaglia in tribunale, sostenendo che solo il Congresso può prevalere sulle leggi statali. Ma gli Stati che non possono permettersi di perdere i finanziamenti federali, o che temono di finire nel mirino di Trump, potrebbero cedere. Ciononostante, ci si aspetta un aumento dell’attività legislativa statale su questioni scottanti, soprattutto laddove l’ordine di Trump dà agli Stati il via libera per legiferare. Con i chatbot accusati di provocare suicidi tra gli adolescenti e i data center che consumano sempre più energia, gli Stati dovranno affrontare una crescente pressione pubblica per l’adozione di misure di sicurezza.
Al posto delle leggi statali, Trump promette di collaborare con il Congresso per stabilire una legge federale sull’IA. Non ci contate troppo. Il Congresso non è riuscito a far approvare una moratoria sulla legislazione statale per due volte nel 2025 e non nutriamo speranze che quest’anno riesca a presentare un proprio disegno di legge.
Le aziende di IA come OpenAI e Meta continueranno a schierare potenti super-PAC per sostenere i candidati politici che appoggiano la loro agenda e prendere di mira coloro che si oppongono. Dall’altra parte, i super-PAC che sostengono la regolamentazione dell’IA creeranno i propri fondi per contrastare questa tendenza. Guardateli scontrarsi alle elezioni di medio termine del prossimo anno.
Più l’IA progredisce, più le persone lotteranno per guidarne il corso, e il 2026 sarà un altro anno di braccio di ferro normativo, senza fine in vista.
—Michelle Kim
I chatbot cambieranno il modo in cui facciamo acquisti
Immagina un mondo in cui hai a disposizione un personal shopper 24 ore su 24, 7 giorni su 7: un esperto in grado di consigliarti immediatamente un regalo anche per l’amico o il parente più difficile da accontentare, o di setacciare il web per stilare un elenco delle migliori librerie disponibili nel rispetto del tuo budget limitato. Meglio ancora, può analizzare i punti di forza e di debolezza di un elettrodomestico da cucina, confrontarlo con prodotti apparentemente identici della concorrenza e trovare l’offerta migliore. Una volta che sarete soddisfatti del suo suggerimento, si occuperà anche dei dettagli relativi all’acquisto e alla consegna.
Ma questo acquirente ultra-competente non è affatto un essere umano ben informato: è un chatbot. E non si tratta di una previsione lontana nel tempo. Salesforce ha recentemente dichiarato che prevede che l’intelligenza artificiale genererà 263 miliardi di dollari di acquisti online durante le festività natalizie. Si tratta di circa il 21% di tutti gli ordini. Gli esperti scommettono che lo shopping potenziato dall’intelligenza artificiale diventerà un business ancora più grande nei prossimi anni. Secondo una ricerca della società di consulenza McKinsey, entro il 2030 il commercio agentico genererà tra i 3.000 e i 5.000 miliardi di dollari all’anno.
Non sorprende che le aziende di IA stiano già investendo molto per rendere gli acquisti attraverso le loro piattaforme il più agevoli possibile. L’app Gemini di Google è ora in grado di attingere al potente set di dati Shopping Graph dell’azienda relativo a prodotti e venditori e può persino utilizzare la sua tecnologia agentica per chiamare i negozi per conto dell’utente. Nel frattempo, a novembre, OpenAI ha annunciato una funzione di shopping ChatGPT in grado di compilare rapidamente guide per gli acquirenti e l’azienda ha stretto accordi con Walmart, Target ed Etsy per consentire agli acquirenti di acquistare prodotti direttamente tramite le interazioni con il chatbot.
Ci si aspetta che nel prossimo anno vengano stipulati molti altri accordi di questo tipo, dato che il tempo trascorso dai consumatori a chattare con l’IA continua ad aumentare e il traffico web proveniente dai motori di ricerca e dai social media continua a diminuire drasticamente.
—Rhiannon Williams
Un LLM farà una nuova importante scoperta
Voglio essere cauta fin dall’inizio. Non è un segreto che i modelli linguistici di grandi dimensioni producano molte sciocchezze. A meno che non si tratti di fortuna alla “scimmie e macchine da scrivere”, gli LLM non scopriranno nulla da soli. Tuttavia, gli LLM hanno ancora il potenziale per ampliare i confini della conoscenza umana.
Abbiamo avuto un assaggio di come potrebbe funzionare a maggio, quando Google DeepMind ha presentato AlphaEvolve, un sistema che utilizzava l’LLM Gemini dell’azienda per elaborare nuovi algoritmi per risolvere problemi irrisolti. La svolta è stata quella di combinare Gemini con un algoritmo evolutivo che verificava i suoi suggerimenti, selezionava i migliori e li reimmetteva nell’LLM per renderli ancora migliori.
Google DeepMind ha utilizzato AlphaEvolve per elaborare modi più efficienti di gestire il consumo energetico dei data center e dei chip TPU di Google. Queste scoperte sono significative, ma non rivoluzionarie. Almeno per ora. I ricercatori di Google DeepMind stanno ora portando avanti il loro approccio per vedere fino a dove può arrivare.
E altri hanno subito seguito il loro esempio. Una settimana dopo l’uscita di AlphaEvolve, Asankhaya Sharma, un ingegnere di IA di Singapore, ha condiviso OpenEvolve, una versione open source dello strumento di Google DeepMind. A settembre, l’azienda giapponese Sakana AI ha rilasciato una versione del software chiamata SinkaEvolve. E a novembre, un team di ricercatori statunitensi e cinesi ha presentato AlphaResearch, che secondo loro migliora una delle soluzioni matematiche di AlphaEvolve già superiori a quelle umane.
Esistono anche approcci alternativi. Ad esempio, i ricercatori dell’Università del Colorado a Denver stanno cercando di rendere gli LLM più creativi modificando il funzionamento dei cosiddetti modelli di ragionamento. Si sono basati sulle conoscenze degli scienziati cognitivi sul pensiero creativo negli esseri umani per spingere i modelli di ragionamento verso soluzioni più innovative rispetto ai loro tipici suggerimenti sicuri.
Centinaia di aziende stanno spendendo miliardi di dollari alla ricerca di modi per far sì che l’IA risolva problemi matematici irrisolti, velocizzi i computer e crei nuovi farmaci e materiali. Ora che AlphaEvolve ha dimostrato cosa è possibile fare con gli LLM, ci si aspetta che l’attività su questo fronte aumenti rapidamente.
—Will Douglas Heaven
Si intensificano le battaglie legali
Per un certo periodo, le cause legali contro le aziende di IA erano piuttosto prevedibili: i titolari dei diritti, come autori o musicisti, citavano in giudizio le aziende che addestravano modelli di IA sul loro lavoro e i tribunali generalmente si pronunciavano a favore dei giganti della tecnologia. Le prossime battaglie legali sull’IA saranno molto più complesse.
Le controversie vertono su questioni spinose e irrisolte: le aziende di IA possono essere ritenute responsabili di ciò che i loro chatbot incoraggiano le persone a fare, come quando aiutano gli adolescenti a pianificare il suicidio? Se un chatbot diffonde informazioni palesemente false su di te, il suo creatore può essere citato in giudizio per diffamazione? Se le aziende perdono queste cause, gli assicuratori eviteranno di avere come clienti le aziende di IA?
Nel 2026 inizieremo a vedere le risposte a queste domande, in parte perché alcuni casi importanti saranno portati in tribunale (la famiglia di un adolescente morto suicida porterà OpenAI in tribunale a novembre).
Allo stesso tempo, il panorama giuridico sarà ulteriormente complicato dall’ordine esecutivo del presidente Trump di dicembre: per maggiori dettagli sulla tempesta normativa in arrivo, consultate l’articolo di Michelle sopra riportato.
In ogni caso, assisteremo a una serie vertiginosa di cause legali in tutte le direzioni (per non parlare del fatto che alcuni giudici si rivolgeranno addirittura all’IA in mezzo a questa valanga).
—James O’Donnell





