GPT-3 è il più potente generatore di linguaggio di sempre

Il nuovo modello linguistico di OpenAI può dare vita, su richiesta, a testi simili a quelli umani, ma non si avvicina a una vera forma di intelligenza.

di Will Douglas Heaven

“Giocare con GPT-3 è come fare un viaggio nel futuro”, ha twittato la settimana scorsa Arram Sabeti, un programmatore e artista di San Francisco. Questa frase riassume con precisione la risposta sui social media all’ultima creatura d’intelligenza artificiale per generare linguaggio di OpenAI.

L’organizzazione senza scopo di lucro ha descritto per la prima volta GPT-3 in un documento pubblicato a maggio. Ma qualche giorno fa ha iniziato a distribuire il software tra un pubblico selezionato che ha richiesto l’accesso a una versione beta privata. Per ora, OpenAI vuole che gli sviluppatori esterni l’aiutino a esplorare ciò che GPT-3 può fare, ma prevede di trasformare lo strumento in un prodotto commerciale entro la fine dell’anno, offrendo alle aziende un abbonamento a pagamento all’IA tramite il cloud. (Si veda link)

GPT-3 è il modello di linguaggio più potente di sempre. GPT-2, il suo predecessore rilasciato lo scorso anno, era già in grado di emettere flussi di testo convincenti in una gamma di stili diversi a partire da un semplice incipit. Ma GPT-3 è un grande balzo in avanti. Il modello ha 175 miliardi di parametri (i valori che una rete neurale cerca di ottimizzare durante l’allenamento), rispetto ai già considerevoli 1,5 miliardi di GPT-2. E con i modelli linguistici, le dimensioni contano davvero.

Sabeti ha pubblicato un post sul blog in cui mostrava racconti, canzoni, comunicati stampa, manuali tecnici e altri materiale generati dall’IA. GPT-3 può anche comporre opere che imitano lo stile di particolari scrittori. Mario Klingemann, un artista che lavora con l’apprendimento automatico, ha condiviso un racconto intitolato L’importanza di essere su Twitter, scritto nello stile di Jerome K. Jerome, che inizia in questo modo: “È un fatto curioso che l’ultima forma rimasta di vita sociale a cui la gente di Londra è ancora interessata sia Twitter. Sono stato colpito da questo curioso fatto quando sono andato in una delle mie periodiche vacanze al mare e ho visto tutti intenti a cinguettare come in una gabbia di canarini”.  Klingemann dice che tutto ciò che ha dato all’IA è stato il titolo, il nome dell’autore e lo spunto iniziale “It”. C’è anche un articolo che informa sulle caratteristiche di GPT-3 scritto interamente da GPT-3. (Si vedano link 1 e link 2)

Altri hanno scoperto che il modello linguistico può generare qualsiasi tipo di testo, comprese le tablature per chitarra o il codice del computer. Per esempio, modificando GPT-3 in modo da produrre HTML invece di un linguaggio naturale, lo sviluppatore web Sharif Shameem ha dimostrato di potergli far creare layout di pagine web, fornendogli istruzioni come “un pulsante che assomiglia a un’anguria” o “grande testo in rosso che riporta Welcome to my newsletter e un pulsante blu con scritto Subscribe“. 

Anche il leggendario programmatore John Carmack, che è stato il pioniere della grafica computerizzata 3D nei primi videogiochi come Doom ed ex CTO di Oculus VR, è rimasto impressionato: “La recente, quasi accidentale, scoperta che GPT-3 può selezionare i codici di scrittura mi provoca un brivido sulla schiena”. (Si veda link)

Eppure, nonostante gli alti livelli raggiunti, GPT-3 è ancora incline a sputare linguaggio odioso e razzista. La messa a punto del modello ha contribuito a limitare questo tipo di problemi in GPT-2. (Si vedano link 1 e link 2)

Non sorprende comunque che molti abbiano immediatamente parlato di intelligenza. Ma le prestazioni quasi umane di GPT-3 e la sua sorprendente versatilità sono i risultati di un’eccellente lavoro di ingegneria, ma non espressione di autentica intelligenza. L’IA dimostra ancora una totale mancanza di buon senso. Anche i suoi “successi” denotano una mancanza di profondità e si possono interpretare più come lavori sullo stile taglia e incolla che composizioni originali. (Si vedano link 1 e link 2)

Non è ancora chiaro il funzionamento di GPT-3. Ciò in cui sembra essere bravo è sintetizzare il testo che ha trovato altrove su Internet, rendendolo una sorta di vasto ed eclettico album creato da milioni e milioni di frammenti di testo che poi incolla in modi strani e meravigliosi su richiesta. (Si veda link)  

Non si sta cercando di minimizzare le prestazioni di OpenAI. Uno strumento simile si può utilizzare a scopi buoni (dal potenziamento dei chatbot all’aiutare le persone a programmare) e cattivi (dal rendere più insidiosi i bot di disinformazione al fare i compiti al posto dei ragazzi). Ma quando arriva un nuovo prodotto importante dell’intelligenza artificiale, troppo spesso viene esaltato dalla pubblicità. 

Perfino Sam Altman, che ha co-fondato OpenAI con Elon Musk, ha cercato di spengere gli entusiasmi: “Le aspettative sul GPT-3 sono esagerate. I complimenti fanno piacere, ma sono il primo a riconoscere che il sistema ha ancora gravi debolezze e talvolta fa errori molto sciocchi. L’intelligenza artificiale cambierà il mondo, ma GPT-3 è solo un primo passo. Abbiamo ancora molto da capire”.

E’ difficile definire un livello standard di intelligenza. Se qualcosa sembra intelligente, è facile farsi prendere dall’ottimismo. Il più grande successo dell’IA è stato far accettare al mondo la sua esistenza. GPT-3 è un enorme passo avanti, ma è ancora uno strumento creato dagli umani, con tutti i difetti e le limitazioni che ciò implica. (Si veda link)

Immagine di: Getty

(rp)

Related Posts
Total
0
Share