L’intelligenza Artificiale è soggetta ad allucinazioni

I maggiori successi arrivano dall’AI incentrata sui dati e dagli importanti sviluppi delle tecniche di apprendimento profondo. Ma resta aperto il problema dell’affidabilità di questi sistemi

Oren Etzioni

Il termine “intelligenza artificiale” ha in realtà due significati. Si può riferire sia alla ricerca scientifica fondamentale per integrare l’intelligenza umana nei computer sia al lavoro di modellazione di enormi quantità di dati. Questi due filoni sono molto diversi, sia nelle loro ambizioni che nella quantità di progressi compiuti negli ultimi anni.

L’AI scientifica, vale a dire il tentativo di costruire e di comprendere l’intelligenza a livello umano, è una delle sfide più profonde di tutta la scienza: risale agli anni 1950 ed è probabile che continui per molti decenni. L’intelligenza artificiale incentrata sui dati, invece, è iniziata seriamente negli anni 1970 con i metodi per costruire automaticamente “alberi decisionali” ed è esplosa in popolarità nell’ultimo decennio con il clamoroso successo delle reti neurali (il cosiddetto “deep learning”). Questo secondo filone di ricerca è stato anche chiamato “AI ristretta” o “AI debole”, ma i rapidi progressi nell’ultimo decennio circa ne hanno dimostrato la potenza.  

I metodi di intelligenza artificiale costruiscono modelli predittivi che diventano sempre più accurati attraverso un processo iterativo ad alta intensità di calcolo. Negli anni passati, la necessità di dati con etichetta umana per addestrare i modelli di intelligenza artificiale è stata un importante collo di bottiglia nel raggiungimento del successo. Ma recentemente, l’attenzione della ricerca e sviluppo si è spostata su modi in cui queste etichette possono essere create automaticamente, in base alla struttura interna dei dati

Il modello linguistico GPT-3 rilasciato da OpenAI nel 2020 esemplifica sia il potenziale che le sfide di questo approccio. GPT-3 è stato addestrato su miliardi di frasi. Genera automaticamente un testo altamente plausibile e risponde anche in modo sensato a domande su un’ampia gamma di argomenti, imitando lo stesso linguaggio che una persona potrebbe usare.

Ma GPT-3 soffre di diversi problemi che i ricercatori stanno cercando di affrontareSpesso è incoerente: si possono ottenere risposte contraddittorie alla stessa domanda. In secondo luogo, è soggetto ad “allucinazioni”: se gli viene chiesto chi fosse il presidente degli Stati Uniti nel 1492, fornirà senza difficoltà una risposta. In terzo luogo, è un modello costoso da addestrare e da gestireIn quarto luogo, è opaco: è difficile capire perché sia arrivato a una determinata conclusione. Infine, dal momento che GPT-3 replica pedissequamente i contenuti dei suoi dati di allenamento, che sono tratti dal web, spesso emette contenuti tossici, tra cui sessismo, razzismo, xenofobia e altro ancora. In sostanza, non ci si può fidare di GPT-3.

Nonostante queste sfide, i ricercatori stanno studiando versioni multimodali di GPT-3 (come DALL-E2), che creano immagini realistiche da richieste in linguaggio naturale. Gli sviluppatori di intelligenza artificiale stanno anche valutando come utilizzare queste informazioni nei robot che interagiscono con il mondo fisico. Inoltre, l’intelligenza artificiale viene sempre più applicata alla biologia, alla chimica e ad altre discipline scientifiche per raccogliere informazioni dagli enormi dati e dalle complessità in quei campi. 

L’AI incentrata sui dati è protagonista dei maggiori successi, ma presenta una limitazione chiave: i sistemi sono ancora progettati e strutturati dagli esseri umani. Alcuni anni fa, in un mio articolo su Technologyreview.it, ho sostenuto che formulare con successo i problemi rimane una capacità distintamente umana. Come disse Pablo Picasso: “I computer sono inutili. Ti danno solo risposte”. Rimaniamo in attesa del giorno in cui i sistemi di intelligenza artificiale sapranno formulare buone domande e gettare più luce sulla sfida scientifica fondamentale della comprensione e della costruzione dell’intelligenza a livello umano. 

Oren Etzioni è CEO dell’Allen Institute for AI.

Immagine: Pixabay, Geralt

(rp)

Related Posts
Total
6
Share