Skip to main content
Stephanie Arnett/MIT Technology Review | Adobe Stock

E perché stiamo comunque prevedendo cosa succederà nel 2026 per questa tecnologia.

A volte l’intelligenza artificiale sembra un argomento di nicchia di cui scrivere, ma poi arrivano le vacanze e sento parenti di tutte le età parlare di casi di psicosi indotta dai chatbot, dare la colpa dell’aumento dei prezzi dell’elettricità ai data center e chiedersi se i bambini dovrebbero avere libero accesso all’intelligenza artificiale. In altre parole, è ovunque. E la gente è allarmata.

Inevitabilmente, queste conversazioni prendono una piega diversa: l’intelligenza artificiale sta avendo tutti questi effetti a catena ora, ma se la tecnologia migliora, cosa succederà dopo? Di solito è allora che mi guardano, aspettandosi una previsione di sventura o di speranza.

Probabilmente li deludo, se non altro perché le previsioni sull’IA stanno diventando sempre più difficili da fare.

Nonostante ciò, devo dire che MIT Technology Review ha un ottimo track record nel dare un senso alla direzione che sta prendendo l’IA. Abbiamo appena pubblicato un elenco accurato di previsioni su ciò che accadrà nel 2026 (dove potete leggere le mie riflessioni sulle battaglie legali che circondano l’IA), e le previsioni dell’elenco dello scorso anno si sono tutte avverate. Ma ogni stagione festiva diventa sempre più difficile capire quale sarà l’impatto dell’IA. Ciò è dovuto principalmente a tre grandi domande senza risposta.

In primo luogo, non sappiamo se i modelli linguistici di grandi dimensioni continueranno a diventare sempre più intelligenti nel prossimo futuro. Poiché questa particolare tecnologia è alla base di quasi tutto l’entusiasmo e l’ansia che circondano l’IA in questo momento, alimentando tutto, dai compagni IA agli agenti del servizio clienti, il suo rallentamento sarebbe un evento piuttosto importante. Talmente importante, infatti, che a dicembre abbiamo dedicato un’intera serie di articoli a come potrebbe essere la nuova era post-hype dell’IA.

In secondo luogo, l’intelligenza artificiale è piuttosto impopolare tra il grande pubblico. Ecco solo un esempio: quasi un anno fa, Sam Altman di OpenAI era al fianco del presidente Trump per annunciare con entusiasmo un progetto da 500 miliardi di dollari per la costruzione di data center in tutti gli Stati Uniti al fine di addestrare modelli di intelligenza artificiale sempre più grandi. I due non immaginavano o non si curavano del fatto che molti americani si sarebbero opposti con forza alla costruzione di tali data center nelle loro comunità. Un anno dopo, le grandi aziende tecnologiche stanno combattendo una battaglia in salita per conquistare l’opinione pubblica e continuare a costruire. Riusciranno a vincere?

La risposta dei legislatori a tutta questa frustrazione è terribilmente confusa. Trump ha soddisfatto i CEO delle Big Tech decidendo di rendere la regolamentazione dell’IA una questione federale piuttosto che statale, e le aziende tecnologiche sperano ora di codificarla in una legge. Ma la folla che vuole proteggere i bambini dai chatbot spazia dai legislatori progressisti della California alla Federal Trade Commission, sempre più allineata con Trump, ciascuno con motivazioni e approcci distinti. Riusciranno a mettere da parte le loro differenze e a frenare le aziende di IA?

Se la conversazione a tavola durante le feste natalizie dovesse arrivare a questo punto, qualcuno dirà: Ehi, ma l’intelligenza artificiale non viene utilizzata per cose oggettivamente positive? Per migliorare la salute delle persone, fare scoperte scientifiche, comprendere meglio il cambiamento climatico?

Beh, più o meno. L’apprendimento automatico, una forma più antica di IA, è stato a lungo utilizzato in tutti i tipi di ricerca scientifica. Una sua branca, chiamata deep learning, fa parte di AlphaFold, uno strumento vincitore del Premio Nobel per la previsione delle proteine che ha trasformato la biologia. I modelli di riconoscimento delle immagini stanno migliorando nell’identificazione delle cellule cancerose.

Ma i risultati ottenuti dai chatbot basati sui nuovi modelli linguistici di grandi dimensioni sono più modesti. Tecnologie come ChatGPT sono piuttosto efficaci nell’analizzare grandi quantità di ricerche per riassumere ciò che è già stato scoperto. Tuttavia, alcune notizie di grande risonanza secondo cui questi modelli di IA avrebbero fatto una vera scoperta, come risolvere un problema matematico irrisolto, erano false. Possono aiutare i medici nella diagnosi, ma possono anche incoraggiare le persone a diagnosticare i propri problemi di salute senza consultare un medico, con risultati a volte disastrosi.

Probabilmente tra un anno avremo risposte migliori alle domande della mia famiglia, ma avremo anche una serie di domande completamente nuove. Nel frattempo, non perdetevi il nostro articolo completo sulle previsioni per quest’anno, con le previsioni dell’intero team di IA.