GPT-3 cambia i motori di ricerca

Una nuova idea dei ricercatori di Google potrebbe rendere il modo in cui effettuiamo ricerche online più simile allo scambio verbale con un esperto umano.

di Will Douglas Heaven

Nel 1998 una coppia di studenti laureati di Stanford pubblicò un articolo che descriveva un nuovo tipo di motore di ricerca: “In questo articolo presentiamo Google, un prototipo di un motore di ricerca su larga scala che fa un uso massiccio della struttura presente nell’ipertesto. Google è progettato per eseguire la scansione e l’indicizzazione del Web in modo efficiente e produrre risultati di ricerca molto più soddisfacenti rispetto ai sistemi esistenti”.

L’innovazione chiave è stata un algoritmo chiamato PageRank, che classifica i risultati della ricerca calcolando quanto fossero rilevanti per la query di un utente sulla base dei loro collegamenti ad altre pagine sul web. Sulla scia di PageRank, Google è diventata la porta di accesso a Internet e Sergey Brin e Larry Page hanno creato una delle più grandi aziende al mondo.

Ora un team di ricercatori di Google ha pubblicato una proposta per una riprogettazione radicale che elimina l’approccio di ranking e lo sostituisce con un unico grande modello di linguaggio AI, come BERT o GPT-3 o una loro versione futura. L’idea è che invece di cercare informazioni in un vasto elenco di pagine web, gli utenti rivolgerebbero domande direttamente a un modello linguistico addestrato su quelle pagine. L’approccio potrebbe cambiare non solo il modo in cui funzionano i motori di ricerca, ma ciò che fanno e il modo in cui interagiamo con loro.

I motori di ricerca sono diventati più veloci e più precisi, anche se il Web è cresciuto di dimensioni. L’intelligenza artificiale viene ora utilizzata per classificare i risultati e Google utilizza BERT per comprendere meglio le query di ricerca. Tuttavia, al di là di queste modifiche, tutti i motori di ricerca tradizionali funzionano ancora allo stesso modo di 20 anni fa: le pagine Web sono indicizzate dai crawler (software che legge il Web senza interruzioni e mantiene un elenco di tutto ciò che trova), i risultati che corrispondono alla query dell’utente vengono raccolti da questo indice e i risultati vengono classificati.

“Questo progetto di recupero dell’indice e poi del ranking ha resistito alla prova del tempo ed è stato raramente messo in discussione o seriamente ripensato”, scrivono Donald Metzler e i suoi colleghi di Google Research. Il problema è che anche i migliori motori di ricerca oggi rispondono ancora con un elenco di documenti che includono le informazioni richieste, non con le informazioni stesse. Inoltre, i motori di ricerca non sono in grado di rispondere a domande che richiedono risposte tratte da più fonti. È come se si chiedesse consiglio al medico e si ricevesse in risposta un elenco di articoli da leggere.

Metzler e i suoi colleghi sono interessati a un motore di ricerca che si comporti come un esperto umano. Dovrebbe produrre risposte in linguaggio naturale, sintetizzate da più di un documento, e supportare le sue risposte con riferimenti a documenti a sostegno, come mirano a fare gli articoli di Wikipedia.  

I modelli linguistici di grandi dimensioni ci aiutano a raggiungere questo obiettivo. Formatosi sulla maggior parte del Web e su centinaia di libri, GPT-3 attinge informazioni da più fonti per rispondere alle domande in linguaggio naturale. Il problema è che non tiene traccia di tali fonti e non può fornire documenti a conferma delle sue risposte. Non c’è modo di sapere se GPT-3 stia ripetendo informazioni attendibili o disinformazione o semplicemente vomitando sciocchezze di sua creazione.

Metzler e i suoi colleghi definiscono “dilettanti” questi modelli linguistici, nel senso che “si ritiene sappiano molto, ma la loro conoscenza è superficiale”. La soluzione, affermano, è costruire e addestrare futuri BERT e GPT-3 per conservare registrazioni della provenienza delle loro parole. Nessun modello di questo tipo è ancora in grado di farlo, ma in linea di principio è possibile e ci sono dei primi lavori in quella direzione.

Ci sono stati decenni di progressi in diverse aree di ricerca, dalla risposta alle domande alla sintesi dei documenti alla strutturazione delle informazioni, afferma Ziqi Zhang dell’Università di Sheffield, nel Regno Unito, che studia il recupero delle informazioni sul web, ma nessuna di queste tecnologie ha revisionato la ricerca perché ciascuna affronta problemi specifici e non è generalizzabile. La premessa promettente di questo articolo è che i grandi modelli linguistici sono in grado di fare tutte queste cose allo stesso tempo, spiega.

Tuttavia Zhang osserva che i modelli linguistici non funzionano bene con materie tecniche o specialistiche perché ci sono meno esempi nel testo su cui sono addestrati. “Probabilmente ci sono centinaia di volte più dati sull’e-commerce sul Web rispetto ai dati sulla meccanica quantistica”, afferma. 

Inoltre, i modelli linguistici odierni sono orientati verso l’inglese, il che lascerebbe scoperte le parti non in inglese del web.  Tuttavia, Zhang accoglie con favore l’idea. “Questo non è stato possibile in passato, perché i modelli linguistici di grandi dimensioni sono decollati solo di recente”, conclude. “Se funzionasse, trasformerebbe la nostra esperienza di ricerca.”

Immagine di: Pixabay

Related Posts
Total
0
Share