
L’azienda sostiene che la sua capacità di affrontare problemi complessi e a più fasi apre la strada ad agenti AI molto più competenti.
Anthropic ha annunciato due nuovi modelli di IA che, a suo dire, rappresentano un passo importante per rendere gli agenti di IA veramente utili.
Gli agenti AI addestrati su Claude Opus 4, il modello più potente dell’azienda, alzano il livello delle capacità di questi sistemi, affrontando compiti difficili per lunghi periodi di tempo e rispondendo in modo più utile alle istruzioni dell’utente.
Claude Opus 4 è stato costruito per eseguire compiti complessi che comportano il completamento di migliaia di passaggi per diverse ore. Ad esempio, ha creato una guida per il videogioco Pokémon Rosso giocando per più di 24 ore consecutive. Il modello più potente dell’azienda, Claude 3.7 Sonnet, era in grado di giocare per soli 45 minuti, afferma Dianne Penn, product lead per la ricerca di Anthropic.
Allo stesso modo, l’azienda afferma che uno dei suoi clienti, l’azienda tecnologica giapponese Rakuten, ha recentemente impiegato Claude Opus 4 per codificare autonomamente per quasi sette ore su un complicato progetto open-source.
Anthropic ha ottenuto questi progressi migliorando la capacità del modello di creare e mantenere “file di memoria” per memorizzare le informazioni chiave. Questa maggiore capacità di “ricordare” fa sì che il modello sia in grado di completare meglio i compiti più lunghi.
“Per noi questo salto generazionale rappresenta il passaggio da un assistente a un vero e proprio agente”, afferma Penn. “Sebbene sia ancora necessario fornire un feedback in tempo reale e prendere tutte le decisioni chiave per gli assistenti AI, un agente può prendere queste decisioni chiave da solo. In questo modo gli esseri umani possono agire più come un delegatore o un giudice, invece di dover tenere per mano questi sistemi in ogni fase”.
Mentre Claude Opus 4 sarà limitato ai clienti Anthropic paganti, un secondo modello, Claude Sonnet 4, sarà disponibile sia per gli utenti a pagamento che per quelli gratuiti. Opus 4 viene commercializzato come un modello potente e di grandi dimensioni per sfide complesse, mentre Sonnet 4 viene descritto come un modello intelligente ed efficiente per l’uso quotidiano.
Entrambi i nuovi modelli sono ibridi, cioè possono offrire una risposta rapida o una risposta più approfondita e ragionata, a seconda della natura della richiesta. Mentre calcolano la risposta, entrambi i modelli possono effettuare ricerche sul web o utilizzare altri strumenti per migliorare i risultati.
Le aziende che si occupano di IA sono attualmente impegnate in una corsa alla creazione di agenti di IA veramente utili, in grado di pianificare, ragionare ed eseguire compiti complessi in modo affidabile e senza la supervisione umana, afferma Stefano Albrecht, direttore dell’IA presso la startup DeepFlow e coautore di Multi-Agent Reinforcement Learning: Foundations and Modern Approaches. Spesso questo comporta l’utilizzo autonomo di Internet o di altri strumenti. Ci sono ancora ostacoli di sicurezza da superare. Gli agenti di intelligenza artificiale basati su modelli linguistici di grandi dimensioni possono agire in modo erratico e compiere azioni non volute, il che diventa un problema ancora più grave quando si confida che agiscano senza la supervisione umana.
“Più gli agenti sono in grado di andare avanti e fare qualcosa per lunghi periodi di tempo, più saranno utili, se dovrò intervenire sempre meno”, afferma. “La capacità dei nuovi modelli di utilizzare strumenti in parallelo è interessante: potrebbe far risparmiare tempo lungo il percorso, quindi sarà utile”.
Come esempio del tipo di problemi di sicurezza che le aziende di AI stanno ancora affrontando, gli agenti possono finire per prendere scorciatoie inaspettate o sfruttare scappatoie per raggiungere gli obiettivi che gli sono stati assegnati. Ad esempio, potrebbero prenotare ogni posto a sedere su un aereo per assicurarsi che il loro utente abbia un posto a sedere, o ricorrere a imbrogli creativi per vincere una partita a scacchi. Anthropic afferma di essere riuscita a ridurre questo comportamento, noto come reward hacking, in entrambi i nuovi modelli del 65% rispetto a Claude Sonnet 3.7. Questo risultato è stato ottenuto monitorando più da vicino i comportamenti problematici durante l’addestramento e migliorando sia l’ambiente di addestramento dell’IA che i metodi di valutazione.





