La vostra voce controllerà i vostri gadget, e questi controlleranno voi

Tutto ciò che possiederete in futuro verrà controllato con la voce. Questo è il migliore riassunto dell’edizione 2019 del CES.

di Karen Hao

Google e Facebook competono per introdurre i propri assistenti virtuali all’interno dei vostri televisori, delle vostre automobili, della vostra vita. Questo confronto è diventato chiaro in occasione del CES di quest’anno a Las Vegas, dove le due società hanno presentato l’intero listino di prodotti a comando vocale.

Il tutto può essere ricondotto all’idea che Kai-Fu Lee, 
uno dei principali esperti di IA, descrive come OMO, ovvero online-merge-of-offline. Il termine si riferisce all’abbinamento del mondo digitale e di quello fisico in maniera da rendere qualunque oggetto che ci circonda un punto di interazione per Internet . oltre che un sensore in grado di raccogliere dati sulle nostre vite. Questo approccio permetterà di alimentare la cosiddetta “terza ondata” dell’IA: I nostri algoritmi, dotati finalmente di una visione complessiva dei nostri comportamenti, sarà in grado di iper-personalizzare le nostre esperienze, nei negozi come nelle scuole.

Questa visione richiede la connessione di tutto. Il vostro carrello della spesa dovrà sapere cosa si trova all’interno del vostro frigorifero per raccomandarvi la lista ideale della spesa. La vostra porta di casa dovrà sapere cosa avete acquistato online e la data prevista per la consegna. È qui che faranno il proprio ingresso in scena le interfacce vocali: installando Alexa nel vostro frigorifero, nella vostra porta e in tutti gli oggetti più disparati prenderà forma un unico ecosistema software.

La strategia è semplice: promuovendo la convenienza di un’assistente vocale, Google ed Amazon si sono lentamente poste al centro della piattaforma che gestirà i vostri dati e coordinerà algoritmicamente tutti gli aspetti della vostra vita.

Che voi vi fidiate o meno di queste società, un’impresa simile sarà limitata a ciò che questi assistenti vocali saranno in grado di comprendere. Rispetto ad altri campi dell’IA, i progressi nelle tecnologie per l’elaborazione e generazione del linguaggio naturale sono rallentati; eppure, le cose potrebbero presto cambiare.

L’anno scorso, diversi gruppi di ricerca hanno utilizzato tecniche di apprendimento automatico per conseguire risultati sorprendenti nella comprensione del linguaggio. Nel mese di giugno, ad esempio, OpenAI ha sviluppato una tecnica di apprendimento non supervisionata per addestrare sistemi su testi non strutturati, piuttosto che su contenuti ripuliti e catalogati. Questa tecnica ha permesso di abbattere drasticamente i costi legati all’acquisizione di dati per l’addestramento delle IA ed incrementare le prestazioni dei sistemi così addestrati. Pochi mesi dopo, Google ha presentato una versione ancor più performante di questo sistema in grado di completare le frasi delle persone con molteplici risposte possibili.

Questi progressi ci stanno portando verso il giorno in cui le macchine saranno realmente in grado di comprendere ciò che diciamo e renderanno le nostre interfacce fisiche e visuali obsolete – introducendo il pieno potenziale del mondo immaginato da Kai-Fu Lee; nel bene o nel male.

(MO)

Related Posts
Total
0
Share