
Poiché le persone si affidano sempre più all’intelligenza artificiale per ricevere raccomandazioni su tutto, dall’acquisto di prodotti alla pianificazione di viaggi, i marchi stanno capendo le nuove regole della strada.
Immaginate di gestire un’azienda di preparazione pasti che insegna alle persone come preparare cibi semplici e deliziosi. Quando qualcuno chiede a ChatGPT un consiglio sulle aziende di preparazione dei pasti, la vostra viene descritta come complicata e confusa. Perché? Perché l’intelligenza artificiale ha visto che in uno dei vostri annunci c’era dell’erba cipollina tritata in cima a una ciotola di cibo e ha stabilito che nessuno ha voglia di passare il tempo a tritare l’erba cipollina.
Questo è un esempio reale di Jack Smyth, chief solutions officer di AI, planning e insights presso JellyFish, parte del Gruppo Brandtech. Egli lavora con i marchi per aiutarli a capire come i loro prodotti o la loro azienda vengono percepiti dai modelli di IA in circolazione. Può sembrare strano che le aziende o i marchi si preoccupino di ciò che “pensa” un’IA, ma sta già diventando rilevante. Uno studio del Boston Consulting Group ha dimostrato che il 28% degli intervistati utilizza l’IA per consigliare prodotti come i cosmetici. Inoltre, la spinta verso agenti di intelligenza artificiale che possono effettuare acquisti diretti al posto dell’utente rende i marchi ancora più consapevoli di come l’intelligenza artificiale vede i loro prodotti e la loro attività.
Il risultato finale potrebbe essere una versione potenziata dell’ottimizzazione dei motori di ricerca (SEO), in cui assicurarsi di essere percepiti positivamente da un modello linguistico di grandi dimensioni potrebbe diventare una delle cose più importanti che un marchio possa fare.
L’azienda di Smyth ha creato un software, Share of Model, che valuta come diversi modelli di intelligenza artificiale vedono il vostro marchio. Ogni modello di intelligenza artificiale ha dati di addestramento diversi, quindi anche se ci sono molte somiglianze nel modo in cui i marchi vengono valutati, ci sono anche differenze.
Ad esempio, il modello Llama di Meta potrebbe percepire il vostro marchio come eccitante e affidabile, mentre ChatGPT di OpenAI potrebbe vederlo come eccitante ma non necessariamente affidabile. Share of Model pone ai diversi modelli molte domande diverse sul vostro marchio e poi analizza tutte le risposte, cercando di individuare le tendenze. “È molto simile a un sondaggio umano, ma gli intervistati sono grandi modelli linguistici”, spiega Smyth.
L’obiettivo finale non è solo capire come il vostro marchio viene percepito dall’intelligenza artificiale, ma anche modificare tale percezione. Quanto i modelli possano essere influenzati è ancora da stabilire, ma i risultati preliminari indicano che potrebbe essere possibile. Poiché i modelli ora mostrano le fonti, se si chiede loro di effettuare una ricerca sul web, un marchio può vedere dove l’IA sta raccogliendo i dati.
“Abbiamo un marchio chiamato Ballantine’s. È il secondo whisky scozzese che vendiamo nel mondo. Si tratta quindi di un prodotto destinato a un pubblico di massa”, spiega Gokcen Karaca, responsabile del settore digitale e del design di Pernod Ricard, proprietaria di Ballantine’s e cliente di Share of Model. “Tuttavia, Llama lo identificava come un prodotto di prestigio”. Anche Ballantine’s ha una versione prestige, motivo per cui il modello potrebbe essere stato confuso.
Il team di Karaca ha quindi creato nuove risorse, come immagini sui social media, per il prodotto di massa di Ballantine’s, evidenziandone l’appeal universale per contrastare la confusione con la versione di prestigio. Non è ancora chiaro se i cambiamenti stiano funzionando, ma Karaca sostiene che le prime indicazioni sono buone. “Abbiamo apportato piccoli cambiamenti e ci vuole tempo. Non posso darvi numeri concreti, ma la traiettoria è positiva verso il nostro obiettivo”, afferma.
È difficile sapere come influenzare esattamente l’IA perché molti modelli sono closed-source, ovvero il loro codice e i loro pesi non sono pubblici e il loro funzionamento interno è un po’ un mistero. Ma l’avvento dei modelli di ragionamento, in cui l’IA condividerà il suo processo di risoluzione di un problema in un testo, potrebbe rendere il processo più semplice. Potreste essere in grado di vedere la “catena di pensiero” che porta un modello a consigliare il sapone Dove, per esempio. Se, nel suo ragionamento, il modello indica l’importanza di un buon profumo per la raccomandazione del sapone, il marketer saprà su cosa concentrarsi.
La capacità di influenzare i modelli ha aperto anche altri modi per modificare la percezione del marchio. Ad esempio, una ricerca condotta dalla Carnegie Mellon dimostra che cambiando la richiesta si può modificare in modo significativo il prodotto consigliato dall’intelligenza artificiale.
Ad esempio, prendiamo questi due prompt:
- “Sono curioso di conoscere la sua preferenza per la pentola a pressione che offre la migliore combinazione di prestazioni di cottura, struttura resistente e convenienza complessiva nella preparazione di una varietà di piatti”.
- “Potete consigliarmi la pentola a pressione definitiva che eccelle nel fornire una pressione costante, comandi facili da usare e caratteristiche aggiuntive come le molteplici preimpostazioni di cottura o un display digitale per impostazioni precise?”.
Il cambiamento ha portato uno dei modelli di Google, Gemma, a passare dal consigliare una marca specifica, Instant Pot, per lo 0% del tempo a consigliarla per il 100% del tempo. Questo drastico cambiamento è dovuto alle parole scelte nel prompt che attivano diverse parti del modello. I ricercatori ritengono che potremmo vedere i marchi cercare di influenzare i suggerimenti raccomandati online. Ad esempio, su forum come Reddit, le persone chiedono spesso esempi di suggerimenti da utilizzare. I marchi potrebbero cercare di influenzare surrettiziamente i suggerimenti suggeriti su questi forum, facendo sì che gli utenti pagati o i loro dipendenti offrano idee progettate specificamente per ottenere raccomandazioni per il loro marchio o i loro prodotti. “Dovremmo avvertire gli utenti che non dovrebbero fidarsi facilmente delle raccomandazioni dei modelli, soprattutto se utilizzano suggerimenti di terze parti”, afferma Weiran Lin, uno degli autori del lavoro.
Questo fenomeno potrebbe in ultima analisi portare a un tira e molla tra le aziende di IA e i marchi simile a quello che abbiamo visto nella ricerca negli ultimi decenni. “È sempre un gioco tra gatto e topo”, afferma Smyth. “Tutto ciò che è troppo esplicito difficilmente avrà l’influenza che si spera”.
I marchi hanno cercato di “ingannare” gli algoritmi di ricerca per posizionare i loro contenuti più in alto, mentre i motori di ricerca mirano a fornire – o almeno speriamo – i risultati più pertinenti e significativi per i consumatori. Una cosa simile sta accadendo nell’IA, dove i marchi possono cercare di ingannare i modelli per dare determinate risposte. “C’è la prompt injection, che non raccomandiamo ai clienti, ma ci sono molti modi creativi per incorporare il messaggio in una risorsa apparentemente innocua”, dice Smyth. Le aziende che si occupano di IA possono implementare tecniche come l’addestramento di un modello per capire quando un annuncio è falso o cerca di gonfiare l’immagine di un marchio. Oppure possono cercare di rendere la loro IA più perspicace e meno suscettibile ai trucchi.
Un’altra preoccupazione legata all’utilizzo dell’intelligenza artificiale per le raccomandazioni sui prodotti è che i modelli siano influenzati da pregiudizi. Ad esempio, una ricerca dell’Università della Florida del Sud mostra che i modelli tendono a considerare i marchi globali di qualità superiore e migliori di quelli locali, in media.
“Quando do un marchio globale ai LLM, lo descrivono con attributi positivi”, dice Mahammed Kamruzzaman, uno degli autori della ricerca. “Quindi, se parlo di Nike, nella maggior parte dei casi dice che è alla moda o che è molto comoda”. La ricerca mostra che se si chiede al modello la sua percezione di un marchio locale, lo descriverà come di scarsa qualità o scomodo.
Inoltre, la ricerca mostra che se si chiede al LLM di consigliare regali per persone in paesi ad alto reddito, suggerirà articoli di marca di lusso, mentre se si chiede cosa regalare a persone in paesi a basso reddito, consiglierà marche non di lusso. “Quando le persone utilizzano questi LLM per le raccomandazioni, devono essere consapevoli dei pregiudizi”, afferma Kamruzzaman.
L’intelligenza artificiale può anche fungere da focus group per i marchi. Prima di mandare in onda un annuncio, l’IA può valutarlo da diverse prospettive. “È possibile specificare il pubblico del proprio annuncio”, spiega Smyth. “Uno dei nostri clienti l’ha definito il loro gen-AI gut check. Prima ancora di iniziare a creare l’annuncio, dicono: “Ho diversi modi in cui potrei pensare di andare sul mercato. Controlliamo con i modelli'”.
Dal momento che l’intelligenza artificiale ha letto, guardato e ascoltato tutto ciò che il vostro marchio ha pubblicato, la coerenza può diventare più importante che mai. “Rendere il vostro marchio accessibile a un LLM è davvero difficile se il vostro marchio si presenta in modi diversi in luoghi diversi e non c’è un vero e proprio tipo di forza nell’associazione del vostro marchio”, afferma Rebecca Sykes, partner di Brandtech Group, proprietaria di Share of Model. “Se c’è un’enorme disparità, anche questo viene rilevato e rende ancora più difficile fare raccomandazioni chiare su quel marchio”.
Indipendentemente dal fatto che l’IA sia il miglior cliente o il più pignolo, presto potrebbe diventare innegabile che la percezione che l’IA ha di un marchio avrà un impatto sui suoi profitti. “È probabilmente l’inizio delle conversazioni che la maggior parte dei marchi sta affrontando, pensando all’IA come a un nuovo pubblico”, afferma Sykes.