
Il tema più caldo dell’IA è appena iniziato.
Gli agenti sono la cosa più in voga nel mondo della tecnologia. Le aziende più importanti, da Google DeepMind a OpenAI ad Anthropic, stanno facendo a gara per aumentare i modelli linguistici di grandi dimensioni con la capacità di svolgere compiti autonomi. Conosciuti in gergo come IA agenziale, questi sistemi sono diventati rapidamente il nuovo obiettivo della Silicon Valley. Tutti, da Nvidia a Salesforce, parlano di come questi sistemi possano sconvolgere il settore.
“Riteniamo che nel 2025 potremmo vedere i primi agenti di IA ‘entrare nella forza lavoro’ e cambiare materialmente la produzione delle aziende”, ha affermato Sam Altman in un post sul blog la scorsa settimana.
In senso lato, un agente è un sistema software che parte e fa qualcosa, spesso con una supervisione minima o nulla. Più la cosa è complessa, più l’agente deve essere intelligente. Per molti, i modelli linguistici di grandi dimensioni sono ora abbastanza intelligenti da alimentare agenti in grado di svolgere tutta una serie di compiti utili per noi, come compilare moduli, cercare una ricetta e aggiungere gli ingredienti a un carrello della spesa online, o usare un motore di ricerca per fare ricerche dell’ultimo minuto prima di una riunione e produrre un rapido riassunto in punti.
A ottobre, Anthropic ha presentato uno degli agenti più avanzati: un’estensione del suo modello di linguaggio Claude large chiamato computer use. Come suggerisce il nome, l’agente permette di indicare a Claude di usare il computer come farebbe una persona, muovendo il cursore, cliccando sui pulsanti e digitando il testo. Invece di conversare semplicemente con Claude, ora è possibile chiedergli di svolgere compiti sullo schermo per voi.
Anthropic osserva che la funzione è ancora macchinosa e soggetta a errori. Ma è già disponibile per una manciata di tester, tra cui sviluppatori di terze parti di aziende come DoorDash, Canva e Asana.
L’uso del computer è un’anticipazione di ciò che accadrà agli agenti. Per sapere cosa succederà, MIT Technology Review ha parlato con il cofondatore e scienziato capo di Anthropic, Jared Kaplan. Ecco alcuni modi in cui gli agenti miglioreranno ulteriormente nel 2025.
(Le risposte di Kaplan sono state leggermente rielaborate per ragioni di lunghezza e chiarezza).
1/ Gli agenti miglioreranno nell’uso degli strumenti
“Penso che ci siano due assi per pensare a ciò che l’IA è in grado di fare. Uno è la questione della complessità del compito che un sistema può svolgere. E man mano che i sistemi di IA diventano più intelligenti, migliorano in questa direzione. Ma un’altra direzione, molto importante, è quella dei tipi di ambienti o strumenti che l’IA può utilizzare.
“Se torniamo indietro di quasi 10 anni, ad esempio ad [AlphaGo, il modello di gioco di DeepMind], abbiamo avuto sistemi di intelligenza artificiale che erano sovrumani in termini di capacità di giocare ai giochi da tavolo. Ma se si può lavorare solo con un gioco da tavolo, si tratta di un ambiente molto limitato. Non è utile, anche se è molto intelligente. Con i modelli testuali, poi con i modelli multimodali e ora con l’uso del computer – e forse in futuro con la robotica – ci si sta muovendo per portare l’IA in situazioni e compiti diversi e renderla utile.
“Eravamo entusiasti dell’uso del computer fondamentalmente per questo motivo. Fino a poco tempo fa, con i modelli linguistici di grandi dimensioni, è stato necessario fornire loro un prompt molto specifico, dare loro strumenti molto specifici, e poi sono limitati a un tipo specifico di ambiente. A mio avviso, l’uso del computer probabilmente migliorerà rapidamente in termini di capacità dei modelli di svolgere compiti diversi e più complessi. E anche per capire quando hanno commesso degli errori, o per capire quando c’è una domanda ad alto rischio e deve chiedere all’utente un feedback”.
2/ Gli agenti capiranno il contesto

ANTHROPIC
“Claude deve imparare abbastanza sulla vostra situazione particolare e sui vincoli in cui operate per essere utile. Ad esempio, il ruolo che ricoprite, gli stili di scrittura o le esigenze vostre e della vostra organizzazione.
“Penso che vedremo dei miglioramenti in questo ambito, dove Claude sarà in grado di cercare tra i vostri documenti, il vostro Slack, ecc. e di imparare davvero ciò che è utile per voi. Questo aspetto è un po’ sottovalutato con gli agenti. È necessario che i sistemi siano non solo utili, ma anche sicuri, e che facciano ciò che ci si aspetta.
“Un’altra cosa è che molte attività non richiederanno a Claude di ragionare molto. Non ha bisogno di sedersi e pensare per ore prima di aprire Google Docs o altro. Quindi penso che vedremo non solo un maggior numero di ragionamenti, ma anche l’applicazione dei ragionamenti quando sono davvero utili e importanti, ma anche la rinuncia a perdere tempo quando non è necessario”.
3/ Gli agenti renderanno migliori gli assistenti alla codifica
“Volevamo far conoscere agli sviluppatori una beta iniziale dell’uso del computer per ottenere un feedback mentre il sistema era relativamente primitivo. Ma man mano che questi sistemi migliorano, potrebbero essere utilizzati più diffusamente e collaborare davvero con l’utente in diverse attività”.
“Penso che DoorDash, Browser Company e Canva stiano sperimentando diversi tipi di interazioni con i browser e li stiano progettando con l’aiuto dell’intelligenza artificiale.
“Mi aspetto di vedere ulteriori miglioramenti anche per gli assistenti di codifica. Si tratta di un aspetto molto interessante per gli sviluppatori. C’è un grande interesse nell’usare Claude 3.5 per la codifica, dove non si tratta solo di completamento automatico come un paio di anni fa. Si tratta di capire cosa c’è di sbagliato nel codice, di eseguire il debug del codice, di vedere cosa succede e di correggerlo”.
4/ Gli agenti dovranno essere messi in sicurezza
“Abbiamo fondato Anthropic perché ci aspettavamo che l’IA progredisse molto rapidamente e pensavamo che, inevitabilmente, i problemi di sicurezza sarebbero stati rilevanti. E credo che quest’anno la questione diventerà sempre più viscerale, perché penso che questi agenti saranno sempre più integrati nel nostro lavoro. Dobbiamo essere pronti ad affrontare le sfide, come l’iniezione rapida.
[L’iniezione di prompt è un attacco in cui un prompt dannoso viene passato a un modello linguistico di grandi dimensioni in modi che i suoi sviluppatori non avevano previsto o inteso. Un modo per farlo è aggiungere il prompt ai siti web che i modelli potrebbero visitare].
“L’iniezione di prompt è probabilmente una delle prime cose a cui stiamo pensando in termini di utilizzo più ampio degli agenti. Penso che sia particolarmente importante per l’uso del computer, ed è qualcosa su cui stiamo lavorando molto attivamente, perché se l’uso del computer viene distribuito su larga scala, potrebbero esserci siti web perniciosi o altro che cercano di convincere Claude a fare qualcosa che non dovrebbe fare.
“E con modelli più avanzati, i rischi aumentano. Abbiamo una solida politica di scalabilità in cui, man mano che i sistemi di IA diventano sufficientemente capaci, riteniamo di dover essere in grado di impedire che vengano utilizzati in modo improprio. Ad esempio, se potessero aiutare i terroristi, questo genere di cose.
“Sono davvero entusiasta dell’utilità dell’IA, che in realtà sta accelerando molto anche all’interno di Anthropic, con persone che utilizzano Claude in tutti i modi, soprattutto per la codifica. Ma, sì, ci saranno anche molte sfide. Sarà un anno interessante”.