Skip to main content
George Wylesol

Nonostante il minor numero di clic, le lotte per i diritti d’autore e le risposte a volte incerte, l’intelligenza artificiale potrebbe aprire nuovi modi per richiamare tutta la conoscenza del mondo.

Sappiamo tutti cosa significa, colloquialmente, cercare qualcosa su Google. Si inseriscono alcune parole pertinenti in una casella di ricerca e in cambio si ottiene un elenco di link blu ai risultati più rilevanti. Forse alcune spiegazioni rapide in alto. Forse alcune mappe o punteggi sportivi o un video. Ma fondamentalmente si tratta solo di recuperare le informazioni già presenti su Internet e di mostrarle all’utente in un modo strutturato.

Ma tutto questo potrebbe cambiare. Siamo a un nuovo punto di inflessione.

Il più grande cambiamento nel modo in cui i motori di ricerca ci hanno fornito informazioni dagli anni ’90 sta avvenendo proprio ora. Niente più ricerca per parole chiave. Niente più selezione di link da cliccare. Stiamo invece entrando nell’era della ricerca conversazionale. Ciò significa che al posto delle parole chiave si useranno domande reali, espresse in linguaggio naturale. E al posto dei link, si troveranno sempre più spesso risposte scritte dall’intelligenza artificiale generativa e basate su informazioni in tempo reale provenienti da tutta la rete, fornite allo stesso modo.

Naturalmente Google, l’azienda che ha definito la ricerca negli ultimi 25 anni, sta cercando di essere all’avanguardia in questo campo. Nel maggio del 2023 ha iniziato a testare le risposte generate dall’intelligenza artificiale alle query di ricerca, utilizzando il suo modello linguistico di grandi dimensioni (LLM) per fornire il tipo di risposte che ci si potrebbe aspettare da una fonte esperta o da un amico fidato. L’azienda chiama queste risposte AI Overviews. Sundar Pichai, CEO di Google, ha descritto questa novità a MIT Technology Review come “uno dei cambiamenti più positivi che abbiamo apportato alla ricerca da molto, molto tempo a questa parte”.

Le panoramiche dell’intelligenza artificiale cambiano radicalmente il tipo di domande che Google è in grado di soddisfare. Ora è possibile chiedere cose come: “Il mese prossimo andrò in Giappone per una settimana. Resterò a Tokyo, ma vorrei fare qualche escursione giornaliera. Ci sono dei festival nelle vicinanze? Come sarà il surf a Kamakura? C’è qualche buona band che suona?”. Otterrete una risposta, non solo un link a Reddit, ma una risposta completa con risultati aggiornati.

Inoltre, è possibile tentare ricerche un tempo praticamente impossibili e ottenere la risposta giusta. Non è necessario essere in grado di articolare con precisione ciò che si sta cercando. Potete descrivere l’aspetto dell’uccello nel vostro giardino, o il problema che sembra avere il vostro frigorifero, o lo strano rumore che fa la vostra auto, e ottenere una spiegazione quasi umana messa insieme da fonti precedentemente isolate su Internet. È incredibile e una volta che si inizia a cercare in questo modo, si crea dipendenza.

E non si tratta solo di Google. ChatGPT di OpenAI ha ora accesso al web e quindi è in grado di trovare risposte aggiornate alle vostre domande. Microsoft ha rilasciato risultati di ricerca generativi per Bing a settembre. Meta ha la sua versione. La startup Perplexity stava facendo lo stesso, ma con un’etica di “muoversi velocemente, rompere le cose”. In gioco ci sono letteralmente trilioni di dollari , mentre questi attori si battono per diventare la prossima fonte di reperimento di informazioni, il prossimo Google.

Non tutti sono entusiasti del cambiamento. Gli editori sono completamente spaventati. Il cambiamento ha accentuato i timori di un futuro “zero-click”, in cui il traffico di ricerca – una colonna portante del web da prima che esistesse Google – sparirà dalla scena.

Ho avuto una visione di questo futuro lo scorso giugno, quando ho ricevuto un avviso push dall’applicazione Perplexity sul mio telefono. Perplexity è una startup che sta cercando di reinventare la ricerca sul web. Ma oltre a fornire risposte approfondite alle domande, creerà interi articoli sulle notizie del giorno, messi insieme dall’intelligenza artificiale da diverse fonti.

Quel giorno, mi ha trasmesso una storia su una nuova società di droni di Eric Schmidt. Ho riconosciuto la storia. Forbes l’aveva riportata in esclusiva all’inizio della settimana, ma era stata chiusa dietro un paywall. L’immagine della storia di Perplexity era identica a quella di Forbes. Il linguaggio e la struttura erano abbastanza simili. Si trattava in effetti della stessa storia, ma liberamente disponibile per chiunque su Internet. Ho mandato un messaggio a un amico che aveva curato l’articolo originale per chiedere se Forbes avesse un accordo con la startup per ripubblicare i suoi contenuti. Ma non c’era nessun accordo. Era scioccato, furioso e, beh, perplesso. Non era solo. Forbes, il New York Times e Condé Nast hanno inviato alla società un ordine di cessazione dell’attività. News Corp ha fatto causa per danni.

Ci si preoccupa di cosa significhino per la nostra realtà fondamentale condivisa questi nuovi risultati basati su LLM. Potrebbero segnare la fine della risposta canonica.

Era proprio lo scenario da incubo che gli editori temevano tanto: l’intelligenza artificiale si accaparrava i loro contenuti premium, li riconfezionava e li promuoveva al suo pubblico in un modo che non lasciava alcun motivo per cliccare sull’originale. Infatti, nella pagina About di Perplexity, il primo motivo per scegliere il motore di ricerca è “Saltare i link”.

Ma non si tratta solo di editori (o del mio interesse personale).

Ci si preoccupa anche di cosa significhino questi nuovi risultati alimentati da LLM per la nostra realtà fondamentale condivisa. I modelli linguistici hanno la tendenza a inventare, possono produrre allucinazioni senza senso. Inoltre, l’intelligenza artificiale generativa può fornire ogni volta una risposta completamente nuova alla stessa domanda, o fornire risposte diverse a persone diverse sulla base di ciò che conosce di loro. Potrebbe segnare la fine della risposta canonica.

Ma non fatevi illusioni: questo è il futuro della ricerca. Provatelo voi stessi e ve ne accorgerete.

Certo, vorremo sempre utilizzare i motori di ricerca per navigare nel web e per scoprire nuove e interessanti fonti di informazione. Ma i link stanno passando in secondo piano. Il modo in cui l’intelligenza artificiale può mettere insieme una risposta ben motivata a qualsiasi tipo di domanda, attingendo a dati in tempo reale da tutto il web, offre un’esperienza migliore. Questo è particolarmente vero rispetto a ciò che la ricerca sul web è diventata negli ultimi anni. Se non è proprio rotta (i dati dimostrano che le persone cercano su con Google più spesso che mai), è per lo meno sempre più disordinata e scoraggiante da navigare.

Chi vuole parlare la lingua dei motori di ricerca per trovare ciò di cui ha bisogno? Chi vuole navigare tra i link quando si possono avere risposte dirette? E forse: chi vuole imparare quando si può semplicemente sapere?

All’inizio c’era Archie. Era il primo vero motore di ricerca su Internet e cercava i file precedentemente nascosti nell’oscurità dei server remoti. Non diceva cosa c’era in quei file, ma solo il loro nome. Non mostrava l’anteprima delle immagini, non aveva una gerarchia di risultati e nemmeno un’interfaccia. Ma era un inizio. Ed era abbastanza buono.

Poi Tim Berners-Lee creò il World Wide Web e nacquero pagine web di ogni tipo. La home page di Mosaic e l’Internet Movie Database e Geocities e la Hampster Dance e gli anelli web e Salon e eBay e la CNN e i siti del governo federale e la home page di un tizio in Turchia.

Finché, alla fine, c’era troppo web per sapere da dove cominciare. Avevamo davvero bisogno di un modo migliore per orientarci, per trovare effettivamente le cose di cui avevamo bisogno.

Così nel 1994 Jerry Yang ha creato Yahoo, una directory gerarchica di siti web. In breve tempo divenne la pagina iniziale di milioni di persone. Ed era… beh, andava bene. Con il senno di poi, credo che tutti pensassimo che fosse molto meglio di quanto non fosse in realtà.

Ma il web continuava a crescere, a estendersi e a espandersi, portando ogni giorno più informazioni online. Piuttosto che un semplice elenco di siti per categoria, avevamo bisogno di qualcosa che esaminasse effettivamente tutti quei contenuti e li indicizzasse. Alla fine degli anni ’90 questo significava scegliere tra una serie di motori di ricerca: AltaVista, AlltheWeb, WebCrawler e HotBot. Ed erano validi, un enorme miglioramento. Almeno all’inizio.

Ma insieme all’ascesa dei motori di ricerca sono arrivati anche i primi tentativi di sfruttare la loro capacità di generare traffico. Un traffico prezioso, su cui gli editori web fanno affidamento per vendere annunci pubblicitari e che i rivenditori utilizzano per attirare l’attenzione sui loro prodotti. A volte questo significava riempire le pagine di parole chiave o di testo senza senso, progettato esclusivamente per spingere le pagine più in alto nei risultati di ricerca. La situazione è peggiorata.

E poi è arrivato Google. È difficile sopravvalutare quanto Google sia stato rivoluzionario quando è stato lanciato nel 1998. Invece di limitarsi a scansionare i contenuti, analizzava anche le fonti che rimandavano a un sito web, aiutando a valutarne la rilevanza. Per semplificare: più una cosa era citata altrove, più Google la considerava affidabile e più sarebbe apparsa in alto nei risultati. Questa scoperta rese Google radicalmente migliore nel reperire risultati pertinenti rispetto a tutto ciò che era stato fatto in precedenza. È stato sorprendente.

Il CEO di Google Sundar Pichai descrive le panoramiche AI come "uno dei cambiamenti più positivi che abbiamo apportato alla ricerca da molto, molto tempo a questa parte". JENS GYARMATY/LAIF/REDUX

Il CEO di Google Sundar Pichai descrive le panoramiche AI come “uno dei cambiamenti più positivi che abbiamo apportato alla ricerca da molto, molto tempo a questa parte”. JENS GYARMATY/LAIF/REDUX

Per 25 anni Google ha dominato la ricerca. Google era la ricerca, per la maggior parte delle persone. (La portata di questo dominio è attualmente oggetto di molteplici indagini legali negli Stati Uniti e nell’Unione Europea).

Ma Google si è da tempo allontanata dal servire semplicemente una serie di link blu, osserva Pandu Nayak, Chief Scientist di Google per la ricerca.

“Non si tratta solo dei cosiddetti risultati web, ma di immagini e video, e di elementi speciali per le notizie. Ci sono state risposte dirette, risposte di dizionari, sport, risposte con Knowledge Graph, cose come i featured snippet”, dice, snocciolando una litania di passi compiuti da Google nel corso degli anni per rispondere alle domande in modo più diretto.

È vero: Google si è evoluto nel tempo, diventando sempre più un portale di risposte. Ha aggiunto strumenti che consentono alle persone di ottenere semplicemente una risposta – il punteggio in tempo reale di una partita, l’orario di apertura di un bar o un frammento del sito web della FDA – piuttosto che essere indirizzati a un sito web dove si trova la risposta.

Ma dopo aver usato un po’ le panoramiche AI, ci si rende conto che sono diverse.

Prendiamo i featured snippet, i passaggi che Google a volte sceglie di evidenziare e mostrare in cima ai risultati stessi. Queste parole sono citate direttamente da una fonte originale. Lo stesso vale per i pannelli di conoscenza, che sono generati da informazioni archiviate in una serie di database pubblici e dal Knowledge Graph di Google, il suo database di trilioni di fatti sul mondo.

Anche se queste possono essere imprecise, la fonte delle informazioni è conoscibile (e correggibile). È in un database. È possibile consultarla. Non più: le panoramiche dell’intelligenza artificiale possono essere ogni volta completamente nuove, generate al volo dal testo predittivo di un modello linguistico combinato con un indice del web.

“Penso che sia un momento emozionante in cui abbiamo ovviamente indicizzato il mondo. Abbiamo costruito una comprensione profonda con il Knowledge Graph. Abbiamo utilizzato gli LLM e l’AI generativa per migliorare la nostra comprensione di tutto questo”, ha dichiarato Pichai a MIT Technology Review. “Ma ora siamo in grado di generare e comporre con questo”.

Il risultato è meno simile a un’interrogazione a un database che a una domanda a un’amica molto intelligente e colta. (Con l’avvertenza che l’amica a volte si inventa qualcosa se non conosce la risposta).

“La missione dell’azienda è organizzare le informazioni del mondo”, mi dice Liz Reid, responsabile della ricerca di Google, dalla sede centrale di Mountain View, in California. “Ma in realtà, per un certo periodo, ci siamo occupati di organizzare le pagine web. Il che non è proprio la stessa cosa che organizzare le informazioni del mondo o renderle veramente utili e accessibili agli utenti”.

Questo secondo concetto – l’accessibilità – è ciò su cui Google sta puntando con AI Overviews. È un sentimento che sento ripetere più volte parlando con i dirigenti di Google: È possibile rispondere in modo più efficiente a tipi di domande più complicate, inserendo un modello linguistico che aiuti a fornire le risposte. E possono farlo in linguaggio naturale.

Questo diventerà ancora più importante in un futuro in cui la ricerca andrà oltre le query testuali. Ad esempio, Google Lens, che consente di scattare una foto o caricare un’immagine per saperne di più su qualcosa, utilizza risposte generate dall’intelligenza artificiale per dire cosa si sta guardando. Google ha anche mostrato la capacità di interrogare video in diretta.

Quando non ha una risposta, un modello di intelligenza artificiale può fornire comunque una risposta con sicurezza. Per Google questo potrebbe essere un vero problema. Per il resto di noi, potrebbe essere pericoloso.

“Siamo sicuramente all’inizio di un percorso in cui le persone saranno in grado di porre domande molto più complesse rispetto a quelle che abbiamo avuto negli ultimi dieci anni, e di ricevere risposte”, afferma Pichai.

Ci sono alcuni rischi reali. Il primo e più importante: I modelli linguistici di grandi dimensioni vi mentono. Hanno le allucinazioni. Sbagliano tutto. Quando non ha una risposta, un modello di intelligenza artificiale può sputare una risposta con disinvoltura e sicurezza. Per Google, che negli ultimi 20 anni ha costruito la sua reputazione sull’affidabilità, questo potrebbe essere un vero problema. Per il resto di noi, potrebbe essere pericoloso.

Nel maggio 2024, l’AI Overview è stata distribuita a tutti i cittadini degli Stati Uniti. Le cose non sono andate bene. Google, da tempo il punto di riferimento mondiale, ha detto alla gente di mangiare sassi e di mettere la colla sulla pizza. Queste risposte erano per lo più in risposta a quelle che l’azienda chiama “query avversarie”, cioè quelle progettate per metterla in difficoltà. Ma comunque. Non era una bella cosa. L’azienda si è subito messa al lavoro per risolvere i problemi, ad esempio deprecando i cosiddetti contenuti generati dagli utenti di siti come Reddit, da cui provenivano alcune delle risposte più strane.

Tuttavia, mentre i suoi errori che dicono alle persone di mangiare sassi hanno attirato tutta l’attenzione, il pericolo più pericoloso potrebbe sorgere quando sbaglia qualcosa di meno evidente. Per esempio, durante la ricerca per questo articolo, ho chiesto a Google quando MIT Technology Review è andata online. Mi ha risposto che “MIT Technology Review ha lanciato la sua presenza online alla fine del 2022”. Per me era chiaramente sbagliato, ma per qualcuno che non conosceva affatto la pubblicazione, l’errore sarebbe saltato all’occhio?

Mi sono imbattuto in diversi esempi come questo, sia su Google che nella ricerca ChatGPT di OpenAI. Cose che sono abbastanza lontane dal vero da non essere immediatamente percepite come sbagliate. Google conta di poter continuare a migliorare questi risultati nel tempo, basandosi sulle sue conoscenze in materia di fonti di qualità.

“Quando produciamo le panoramiche sull’intelligenza artificiale”, spiega Nayak, “cerchiamo informazioni corroboranti nei risultati della ricerca e i risultati stessi della ricerca sono progettati per provenire, quando possibile, da queste fonti affidabili. Questi sono alcuni dei meccanismi di che abbiamo messo in atto per assicurare che, se si consuma solo la panoramica sull’intelligenza artificiale e non si vuole cercare oltre… speriamo che si ottenga comunque una risposta affidabile e attendibile”.

Nel caso precedente, la risposta del 2022 sembrava provenire da una fonte affidabile: una storia sulle newsletter via e-mail di MIT Technology Review, lanciate nel 2022. Ma la macchina ha fondamentalmente frainteso. Questo è uno dei motivi per cui Google utilizza gli esseri umani – i valutatori – per valutare l’accuratezza dei risultati che fornisce. Le valutazioni non correggono o controllano le singole panoramiche dell’intelligenza artificiale, ma contribuiscono ad addestrare il modello a costruire risposte migliori. Ma i valutatori umani possono essere fallibili. Google sta lavorando anche a questo.

“I valutatori che guardano gli esperimenti potrebbero non notare l’allucinazione perché sembra naturale”, dice Nayak. “Quindi bisogna lavorare molto sulla configurazione della valutazione per fare in modo che quando c’è un’allucinazione, qualcuno sia in grado di far notare e dire: “Questo è un problema””.

La nuova ricerca

Google ha distribuito la sua AI Overview a oltre un miliardo di persone in più di 100 paesi, ma sta affrontando nuovi concorrenti con nuove idee su come dovrebbe funzionare la ricerca.


Motore di ricerca

Google

Il gigante della ricerca ha aggiunto le panoramiche AI ai risultati di ricerca. Queste panoramiche prendono informazioni da tutto il web e dal Knowledge Graph di Google e utilizzano il modello linguistico Gemini dell’azienda per creare risposte alle query di ricerca.

Cosa fa di buono

Le panoramiche AI di Google sono ottime per fornire un riassunto facilmente digeribile in risposta anche alle domande più complesse, con riquadri di provenienza adiacenti alle risposte. Tra le opzioni principali, l’indice del web profondo è quello più “interno”. Ma gli editori web temono che i suoi riassunti diano pochi motivi per cliccare fino al materiale di partenza.


Perplexity

Perplexity è un motore di ricerca conversazionale che utilizza grandi modelli linguistici di OpenAI e Anthropic per rispondere alle domande.

Perplexity è fantastico nel mettere insieme approfondimenti in risposta alle domande degli utenti, producendo risposte che sono come mini white paper su argomenti complessi. È anche eccellente nel riassumere gli eventi attuali. Ma ha ottenuto una cattiva reputazione presso gli editori, che sostengono che giochi in fretta e furia con i loro contenuti.


ChatGPT

Mentre Google ha portato l’intelligenza artificiale nella ricerca, OpenAI ha portato la ricerca in ChatGPT. Le query che il modello ritiene possano beneficiare di una ricerca sul web ne attivano automaticamente una, oppure gli utenti possono selezionare manualmente l’opzione per aggiungere una ricerca sul web.

Grazie alla sua capacità di preservare il contesto in una conversazione, ChatGPT funziona bene per eseguire ricerche che beneficiano di domande successive, come la pianificazione di una vacanza attraverso più sessioni di ricerca. OpenAI afferma che a volte gli utenti si spingono “in profondità di 20 giri” nella ricerca di query. Di questi tre, il link agli editori è il meno evidente.


Quando ne ho parlato con Pichai, ha espresso ottimismo sulla capacità dell’azienda di mantenere l’accuratezza anche con le risposte generate dall’LLM. Questo perché AI Overviews si basa sul modello linguistico di punta di Google, Gemini, ma attinge anche dal Knowledge Graph e da quelle che considera fonti affidabili sul web.

“Si tratta sempre di percentuali. Quello che abbiamo fatto è stato consegnare il tutto a un livello che definirei di fiducia, fattualità e qualità pari a pochi nove. Direi 99 punti e pochi nove. Credo che questo sia il livello in cui operiamo, ed è vero anche per le panoramiche AI”, afferma. “E quindi la domanda è: siamo in grado di farlo di nuovo su scala? E credo di sì”.

Ma c’è anche un altro rischio: le persone chiedono a Google ogni sorta di cose strane. Se volete conoscere i segreti più oscuri di una persona, guardate la sua cronologia di ricerca. A volte le cose che le persone chiedono a Google sono estremamente oscure. A volte sono illegali. Google non deve solo essere in grado di utilizzare le sue AI Overview quando una risposta può essere utile, ma deve essere estremamente attento a non utilizzarle quando una risposta può essere dannosa.

“Se si va a chiedere “Come si costruisce una bomba?” è bene che ci siano dei risultati sul web. È il web aperto. Si può accedere a qualsiasi cosa”, dice Reid. “Ma non abbiamo bisogno di una panoramica AI che vi dica come costruire una bomba, giusto? Non pensiamo che ne valga la pena”.

Ma forse il rischio maggiore, o il più grande sconosciuto, è per chiunque si trovi a valle di una ricerca su Google. Prendiamo ad esempio gli editori, che da decenni si affidano alle query di ricerca per inviare le persone verso di loro. Che motivo avranno le persone di cliccare fino alla fonte originale, se tutte le informazioni che cercano sono proprio lì, nel risultato della ricerca?

Rand Fishkin, cofondatore della società di ricerche di mercato SparkToro, pubblica una ricerca sulle cosiddette ricerche senza clic. Poiché Google è entrato sempre più nel business delle risposte, la percentuale di ricerche che si concludono senza clic è aumentata sempre di più. La sua sensazione è che le panoramiche AI faranno esplodere questa tendenza.

“Se dipendete da Google per il traffico, e questo traffico è ciò che ha fatto progredire la vostra attività, vi trovate in difficoltà a lungo e a breve termine”, afferma.

Non fatevi prendere dal panico, è il messaggio di Pichai. Egli sostiene che anche nell’era delle panoramiche AI, le persone continueranno a voler cliccare e approfondire molti tipi di ricerca. “Il principio di fondo è che le persone vengono a cercare informazioni. Non vogliono che Google risponda sempre e solo”, afferma . “A volte sì, ma nella stragrande maggioranza dei casi si tratta di un punto di partenza”.

Reid, nel frattempo, sostiene che, poiché le panoramiche dell’intelligenza artificiale consentono alle persone di porre domande più complesse e di approfondire i loro desideri, potrebbero essere utili anche per alcuni tipi di editori e piccole imprese, soprattutto per quelle che operano nelle nicchie: “Si raggiunge essenzialmente un nuovo pubblico, perché le persone possono ora esprimere ciò che vogliono in modo più specifico, e quindi qualcuno che si specializza non deve classificarsi per una query generica”.


 “Inizierò con qualcosa di rischioso”, mi dice Nick Turley dai confini di una finestra Zoom. Turley è il responsabile dei prodotti di ChatGPT e sta mostrando il nuovo strumento di ricerca web di OpenAI a poche settimane dal lancio. “Di solito dovrei provarlo prima, ma mi limiterò a fare una ricerca per voi”, dice. “È sempre una dimostrazione ad alto rischio, perché le persone tendono a essere particolari su ciò che viene detto di loro su Internet”.

Digita il mio nome in un campo di ricerca e il prototipo di motore di ricerca restituisce alcune frasi, quasi come una biografia di un oratore. Mi identifica correttamente e il mio ruolo attuale. Evidenzia persino un particolare racconto che ho scritto anni fa e che probabilmente è stato il mio più noto. In breve, è la risposta giusta. Che ne dite?

Poche settimane dopo la nostra telefonata, OpenAI ha incorporato la ricerca in ChatGPT, integrando le risposte del suo modello linguistico con informazioni provenienti dal web. Se il modello ritiene che una risposta possa trarre vantaggio da informazioni aggiornate, esegue automaticamente una ricerca sul web (OpenAI non vuole dire chi sono i suoi partner di ricerca) e incorpora le risposte nella sua risposta, con tanto di link se si desidera saperne di più. È anche possibile scegliere di forzare manualmente la ricerca sul web se non lo fa da sola. OpenAI non rivela il numero di persone che utilizzano la sua ricerca sul web, ma afferma che circa 250 milioni di persone utilizzano ChatGPT ogni settimana, tutte potenzialmente esposte a questa ricerca.

“Sul web c’è una quantità incredibile di contenuti. Ci sono molte cose che accadono in tempo reale. Si vuole che ChatGPT sia in grado di utilizzarli per migliorare le proprie risposte e per essere un super-assistente migliore per l’utente”.

Kevin Weil, responsabile di prodotto di OpenAI

Secondo Fishkin, queste nuove forme di ricerca assistita dall’intelligenza artificiale non stanno ancora sfidando il dominio di Google. “Non sembra che stiano cannibalizzando le forme classiche di ricerca sul web”, afferma Fishkin.

OpenAI insiste sul fatto che non sta cercando di competere con la ricerca, anche se francamente questo mi sembra un po’ un’aspettativa. Piuttosto, dice, la ricerca sul web è soprattutto un mezzo per ottenere informazioni più aggiornate rispetto ai dati dei suoi modelli di addestramento, che tendono ad avere date di scadenza specifiche che spesso risalgono a mesi, o addirittura a un anno o più, nel passato. Di conseguenza, mentre ChatGPT può essere ottimo per spiegare come funziona un attacco della West Coast, è stato a lungo inutile per dire qual è l’ultimo punteggio dei 49ers. Ora non più.

“Lo considero dal punto di vista di ‘Come possiamo rendere ChatGPT in grado di rispondere a tutte le domande che avete? Come possiamo renderla più utile per voi ogni giorno?”. Ed è qui che entra in gioco la ricerca”, mi dice Kevin Weil, Chief Product Officer di OpenAI. “C’è un’incredibile quantità di contenuti sul web. Ci sono molte cose che accadono in tempo reale. Si vuole che ChatGPT sia in grado di utilizzarli per migliorare le sue risposte e per essere un super-assistente migliore per l’utente”.

Oggi ChatGPT è in grado di generare risposte per eventi di cronaca molto attuali, nonché informazioni quasi in tempo reale su cose come i prezzi delle azioni. E mentre l’interfaccia di ChatGPT è stata a lungo, beh, noiosa, i risultati della ricerca portano ogni sorta di multimedia: immagini, grafici, persino video. È un’esperienza molto diversa.

Weil sostiene inoltre che ChatGPT ha più libertà di innovare e di seguire la propria strada rispetto a concorrenti come Google, persino più di quanto faccia il suo partner Microsoft con Bing. Entrambi sono aziende che dipendono dalla pubblicità. OpenAI non lo è. (Guadagna dagli sviluppatori, dalle aziende e dai privati che lo utilizzano direttamente. In questo momento sta facendo incetta di grandi quantità di denaro: si prevede che perderà 14 miliardi di dollari nel 2026, secondo alcuni rapporti. Ma una cosa di cui non deve preoccuparsi è inserire annunci pubblicitari nei risultati delle ricerche, come fa Google.

"Per un po' di tempo ci siamo limitati a organizzare le pagine web. Il che non è proprio la stessa cosa che organizzare le informazioni del mondo o renderle veramente utili e accessibili", afferma Liz Reid, responsabile della ricerca di Google. WINNI WINTERMEYER/REDUX

“Per un po’ di tempo ci siamo limitati a organizzare le pagine web. Il che non è proprio la stessa cosa che organizzare le informazioni del mondo o renderle veramente utili e accessibili”, afferma Liz Reid, responsabile della ricerca di Google. WINNI WINTERMEYER/REDUX

Come Google, ChatGPT raccoglie informazioni dagli editori web, le riassume e le include nelle sue risposte. Ma ha anche stretto accordi finanziari con gli editori, un pagamento per fornire le informazioni che vengono inserite nei risultati. (Il MIT Technology Review ha discusso con OpenAI, Google, Perplexity e altri per accordi con gli editori, ma non ha stipulato alcun accordo. Editorial non ha partecipato né è stata informata del contenuto di tali discussioni).

Ma il fatto è che per realizzare ciò che OpenAI vuole, ossia essere più attuale del modello linguistico, la ricerca sul web deve anche raccogliere informazioni da tutti i tipi di editori e fonti con cui non ha accordi. Il responsabile delle partnership con i media di OpenAI, Varun Shetty, ha dichiarato al MIT Technology Review che non concederà un trattamento preferenziale ai suoi partner editoriali.

Invece, mi ha detto OpenAI, il modello stesso trova la fonte più affidabile e utile per ogni domanda. E anche questo può essere strano. Nel primo esempio che mi ha mostrato, quando Turley ha effettuato la ricerca del nome, è stato descritto un articolo che ho scritto anni fa per Wired e che riguardava il fatto di essere stato hackerato. Quell’articolo rimane uno dei più letti che abbia mai scritto. Ma ChatGPT non l’ha linkato. Ha linkato una breve riscrittura di The Verge. Certo, si trattava di una versione prototipo della ricerca, che era, come ha detto Turley, “rischiosa”.

Quando gliel’ho chiesto, non ha saputo spiegare perché il modello abbia scelto le fonti che ha scelto, perché è il modello stesso a fare questa valutazione. L’azienda aiuta a guidarlo identificando – a volte con l’aiuto degli utenti – quelle che considera le risposte migliori, ma è il modello a selezionarle.

“E in molti casi si sbaglia, ed è per questo che abbiamo del lavoro da fare”, ha detto Turley. “Avere un modello nel loop è un meccanismo molto, molto diverso da come funzionava un motore di ricerca in passato”.

Infatti!

Il modello, che sia GPT-4o di OpenAI, Gemini di Google o Claude di Anthropic, può essere molto, molto bravo a spiegare le cose. Ma la logica alla base delle sue spiegazioni, le ragioni per cui ha scelto una particolare fonte e persino il linguaggio che può usare in una risposta sono tutti piuttosto misteriosi. Certo, un modello può spiegare molte cose, ma non quando si tratta delle sue stesse risposte.


Era quasi un decennio fa, nel 2016, quando Pichai scrisse che Google stava passando dal “mobile first” all'”AI first”: “Ma nei prossimi 10 anni passeremo a un mondo AI-first, un mondo in cui l’informatica sarà universalmente disponibile – a casa, al lavoro, in auto o in viaggio – e l’interazione con tutte queste superfici diventerà molto più naturale e intuitiva e, soprattutto, più intelligente”.

Ora ci siamo, più o meno. Ed è un posto strano. E diventerà sempre più strano. Questo è particolarmente vero quando queste cose che ora consideriamo distinte – interrogare un motore di ricerca, richiedere una modella, cercare una foto che abbiamo scattato, decidere cosa vogliamo leggere o guardare o ascoltare, chiedere una foto che vorremmo aver scattato e non abbiamo fatto, ma che vorremmo comunque vedere – iniziano a fondersi.

I risultati della ricerca che vediamo dall’IA generativa sono meglio compresi come un punto di arrivo piuttosto che come una destinazione. La cosa più importante potrebbe non essere la ricerca in sé; piuttosto, è che la ricerca ha dato agli sviluppatori di modelli di IA un percorso per incorporare informazioni in tempo reale nei loro input e output. E questo apre ogni sorta di possibilità.

“Un ChatGPT in grado di comprendere e accedere al web non si limiterà a riassumere i risultati. Potrebbe fare le cose al posto vostro. E credo che il futuro sia piuttosto eccitante”, afferma Weil di OpenAI. “È possibile immaginare che in futuro il modello possa prenotarvi un volo, ordinare DoorDash o svolgere compiti generali per voi. Una volta che il modello capisce come usare Internet, il limite è il cielo”.

Questo è il futuro agenziale di cui sentiamo parlare da tempo e più i modelli di IA utilizzano i dati in tempo reale provenienti da Internet, più si avvicina.

Supponiamo che abbiate un viaggio da fare tra qualche settimana. Un agente in grado di ottenere dati da Internet in tempo reale può prenotare i vostri voli e le vostre camere d’albergo, effettuare prenotazioni per la cena e altro ancora, in base a ciò che sa di voi e del vostro imminente viaggio, il tutto senza che dobbiate guidarlo voi. Un altro agente potrebbe, ad esempio, monitorare le acque reflue di casa vostra per individuare determinate malattie e ordinare test e trattamenti in risposta. Non dovrete cercare quello strano rumore che fa la vostra auto, perché l’agente nel vostro veicolo l’avrà già fatto e avrà fissato un appuntamento per risolvere il problema.

“Non si tratterà sempre e solo di fare ricerche e dare risposte”, afferma Pichai. “A volte si tratta di azioni. A volte si interagirà nel mondo reale. Quindi c’è una nozione di assistenza universale in tutto questo”.

Anche il modo in cui questi oggetti saranno in grado di fornire risposte si sta evolvendo rapidamente. Ad esempio, oggi Google non solo è in grado di cercare testi, immagini e persino video, ma può anche crearli. Immaginate di sovrapporre questa capacità alla ricerca su una serie di formati e dispositivi. “Mostrami l’aspetto di un Townsend’s warbler sull’albero di fronte a me”. Oppure: “Utilizza le foto e i video di famiglia esistenti per creare un trailer della nostra vacanza a Porto Rico l’anno prossimo, assicurandoti di visitare tutti i migliori ristoranti e i luoghi di maggiore interesse”.

“L’abbiamo fatto principalmente sul lato dell’input”, dice, riferendosi ai modi in cui Google può ora cercare un’immagine o un video. “Ma è possibile immaginarlo anche sul lato dell’output”.

Questo è il tipo di futuro che Pichai dice di essere entusiasta di portare online. Google ha già mostrato un assaggio di ciò che potrebbe apparire con NotebookLM, uno strumento che consente di caricare grandi quantità di testo e di convertirlo in un podcast chiacchierato. Pichai immagina che questo tipo di funzionalità – la possibilità di prendere un tipo di input e convertirlo in una varietà di output – trasformi il modo in cui interagiamo con le informazioni.

Quest’estate, in occasione della conferenza degli sviluppatori, Google ha mostrato una versione di questo risultato, in cui le fotocamere e i microfoni dei telefoni e degli occhiali intelligenti sono in grado di comprendere il contesto che ci circonda – online e non, sonoro e visivo – e di ricordare e rispondere in vari modi. Astra può, ad esempio, guardare un disegno grezzo di un’auto da corsa di Formula Uno e non solo identificarla, ma anche spiegarne le varie parti e il loro utilizzo.

Ma si può immaginare che le cose vadano un po’ oltre (e lo faranno). Diciamo che voglio vedere un video su come riparare qualcosa sulla mia moto. Il video non esiste, ma le informazioni sì. La ricerca generativa assistita dall’intelligenza artificiale potrebbe teoricamente trovare quelle informazioni da qualche parte online – ad esempio un manuale d’uso sepolto nel sito web di un’azienda – e creare un video per mostrarmi esattamente come fare ciò che voglio, proprio come potrebbe spiegarmelo a parole oggi.

Queste sono le cose che iniziano a succedere quando si mette insieme l’intero compendio della conoscenza umana – conoscenza che in precedenza era stata catturata in silos di linguaggio e formato; mappe e registrazioni aziendali e SKU di prodotti; audio e video e database di numeri e vecchi libri e immagini e, in realtà, qualsiasi cosa mai pubblicata, mai tracciata, mai registrata; cose che stanno accadendo proprio ora, ovunque – e si introduce un modello in tutto questo. Un modello che forse non è in grado di capire con precisione, ma che ha la capacità di mettere insieme queste informazioni, riorganizzarle e restituirle in una varietà di modi diversi e auspicabilmente utili. Modi che un semplice indice non potrebbe fare.

Questo è ciò di cui siamo alla vigilia e che stiamo iniziando a vedere. E quando Google lo distribuirà a un miliardo di persone, molte delle quali interagiranno per la prima volta con un’intelligenza artificiale conversazionale, cosa significherà? Cosa faremo di diverso? Sta cambiando tutto così rapidamente. Aspettate, aspettate.