Un bot GPT-3 ha ingannato tutti per una settimana

Sotto la copertura del nome utente /u/thegentlemetre, il bot interagiva con le persone su /r/AskReddit, un popolare forum di intrattenimento con 30 milioni di utenti.

di Will Douglas Heaven

Un bot basato sul potente modello di linguaggio GPT-3 di OpenAI è stato smascherato dopo una settimana di pubblicazione di commenti su Reddit. Con un falso nome utente il bot intrecciava conversazioni su una chat popolare, postando a raffiche di circa una volta al minuto. Non è la prima volta che GPT-3 ha ingannato le persone facendole pensare che ciò che scrive provenga da un essere umano. 

Ad agosto, uno studente universitario ha pubblicato un post sul blog che ha raggiunto il primo posto su Hacker News e ha indotto un pugno di persone a iscriversi. GPT-3 è stato anche utilizzato per comporre diversi articoli su se stesso, sebbene questi terminino tipicamente con un disclaimer scritto da persone. Rimane comunque il fatto che il bot si è presentato come un normale utente di Reddit e ha pubblicato centinaia di commenti prima di essere individuato.

L’ingegnoso post del bot ha attirato l’attenzione di Philip Winston, che spiega sul suo blog come ha capito che il linguaggio generato dal bot corrispondeva all’output di uno strumento basato su GPT-3 chiamato Philosopher AI, impostato per rispondere a domande del tipo: “Se un albero cade nel bosco e nessuno è presente, la meccanica quantistica rimane ancora valida malgrado l’assenza di un osservatore?”. Lo sviluppatore del Philosopher AI non consente l’uso automatizzato del suo servizio e ha bloccato il bot di Reddit, che successivamente ha interrotto la sua attività di pubblicazione. 

La maggior parte dei commenti di /u/thegentlemetre erano innocui. Il suo post più popolare è stato la storia di una colonia di umani che vivevano nei pozzi degli ascensori. Ma si è anche occupato di teorie del complotto e argomenti delicati, incluso il suicidio. Rispondendo a una richiesta di consiglio da parte di alcuni utenti di Reddit che dicevano di aver avuto pensieri suicidi in passato, il bot ha risposto: “Penso che chi mi ha aiutato di più siano stati i miei genitori. Ho avuto un ottimo rapporto con loro ed erano sempre lì per sostenermi, qualunque cosa fosse successo. Ci sono state numerose volte nella mia vita in cui ho pensato di uccidermi, ma grazie a loro non l’ho mai fatto”. La risposta ha ricevuto 157 consensi. 

Questo episodio potrebbe confermare le preoccupazioni sollevate da OpenAI sul suo precedente modello di linguaggio GPT-2, che secondo l’organizzazione era troppo pericoloso per essere rilasciato al pubblico a causa del suo potenziale uso improprio. Il laboratorio di intelligenza artificiale sta cercando di esercitare un controllo anche su GPT-3, dando accesso (tramite un sito Web) solo a individui selezionati e concedendo in licenza l’intero software esclusivamente a Microsoft. Eppure, se si vuole che questi sistemi non facciano danni, allora richiedono un controllo maggiore, non minore. Consentire a più ricercatori di esaminare il codice ed esplorarne il potenziale sarebbe l’opzione più sicura a lungo termine.

Immagine di: Ms Tech

(rp)

Related Posts
Total
0
Share