Le recenti dimostrazioni degli occhiali intelligenti di Meta e Snap hanno mostrato immagini impressionanti. Ma il punto è il cervello.
Nel caso vi sia sfuggito l’avviso, ci stiamo dirigendo verso la prossima grande categoria di dispositivi di consumo: gli occhiali intelligenti. Alla conferenza degli sviluppatori della scorsa settimana, Meta (nata Facebook) ha presentato un nuovo set di occhiali a realtà aumentata (AR) decisamente strabiliante, chiamato Orion. Snap ha presentato i suoi nuovi Snap Spectacles la scorsa settimana. A giugno, in occasione del Google IO, l’azienda ne aveva presentato un paio. Si dice che anche Apple stia lavorando a un proprio modello. Che bello.
Sia Meta che Snap hanno messo i loro occhiali nelle mani (o forse sui volti) dei giornalisti. Ed entrambi hanno dimostrato che, dopo anni di promesse, gli occhiali AR sono finalmente una cosa reale. Ma ciò che è davvero interessante in tutto questo per me non è affatto l’AR. È l’intelligenza artificiale.
Prendiamo i nuovi occhiali di Meta. Si tratta ancora di un prototipo, dato che il costo per costruirli – si parla di 10.000 dollari – è molto elevato. Ma l’azienda li ha mostrati comunque questa settimana, stupendo praticamente tutti coloro che hanno potuto provarli. Le funzioni olografiche sembrano molto interessanti. Anche i controlli gestuali sembrano funzionare molto bene. E, cosa forse migliore di tutte, sembrano più o meno degli occhiali normali, anche se ingombranti. (attenzione: la mia definizione di occhiali normali potrebbe essere diversa da quella della maggior parte delle persone). Se volete saperne di più sulle loro caratteristiche, Alex Heath ha pubblicato un ottimo articolo pratico su The Verge.
Ma ciò che mi incuriosisce di più è il modo in cui gli occhiali intelligenti consentono di interagire con l’intelligenza artificiale durante la giornata. Credo che questo sarà molto più utile della visualizzazione di oggetti digitali in spazi fisici. In parole povere: non si tratta di effetti visivi. È una questione di cervello.
Oggi, se si vuole porre una domanda a ChatGPT o a Google Gemini o altro, è praticamente necessario utilizzare il telefono o il computer portatile per farlo. Certo, si può usare la voce, ma è comunque necessario il dispositivo come ancoraggio. Questo è particolarmente vero se avete una domanda su qualcosa che vedete: per questo avrete bisogno della fotocamera dello smartphone. Meta ha già fatto un passo avanti in questo senso, consentendo alle persone di interagire con la sua IA attraverso gli occhiali intelligenti Ray-Ban Meta. È liberatorio liberarsi dal vincolo dello schermo. Francamente, fissare uno schermo fa un po’ schifo.
Ecco perché quando ho provato i nuovi Spectacles di Snap, un paio di settimane fa, sono stato meno colpito dalla capacità di simulare un campo da golf in salotto che dal modo in cui potevo guardare all’orizzonte, chiedere all’agente AI di Snap informazioni sulla nave alta che vedevo in lontananza e far sì che non solo la identificasse, ma me ne desse una breve descrizione. Allo stesso modo, su The Verge, Heath osserva che la parte più impressionante della demo di Orion di Meta è stata quella in cui ha guardato una serie di ingredienti e gli occhiali gli hanno detto quali erano e come fare un frullato con essi.
La caratteristica principale di Orion o di altri occhiali non saranno i giochi di ping-pong in AR: colpire una palla invisibile con il palmo della mano è semplicemente assurdo. Ma la possibilità di utilizzare l’intelligenza artificiale multimodale per comprendere meglio, interagire e ottenere di più dal mondo che ci circonda senza essere risucchiati da uno schermo? È incredibile.
Ed è sempre stato questo il fascino. Almeno per me. Nel 2013, quando scrivevo di Google Glass, la cosa più rivoluzionaria di quel computer facciale estremamente nascente era la sua capacità di offrire informazioni pertinenti e contestuali utilizzando Google Now (all’epoca la risposta dell’azienda a Siri di Apple) in un modo che escludeva il mio telefono.
Pur avendo sentimenti contrastanti nei confronti dei Glass, ho sostenuto che “amerete tantissimo Google Now per il vostro viso”. Penso ancora che sia vero.
Gli assistenti che vi aiutano a compiere azioni nel mondo, senza dovervi dare istruzioni complicate o senza farvi interfacciare con uno schermo, stanno per inaugurare una nuova ondata di informatica. Mentre la demo di Project Astra di Google, un agente di intelligenza artificiale ancora inedito presentato quest’estate, si è scatenata su un telefono, è stato solo quando Astra ha funzionato su un paio di occhiali intelligenti che le cose si sono davvero accese.
Anni fa, un informatore di Magic Leap, una delle prime aziende che si occupano di cuffie AR, cercò di convincermi che lasciare oggetti virtuali, come un mazzo di fiori digitale, in giro per gli spazi fisici affinché gli altri li trovino sarebbe stato bello. Ok… certo. E sì, Pokémon Go è stato molto popolare. Ma ci è voluta l’intelligenza artificiale generativa, non gli espedienti dell’AR, per dare un senso agli occhiali intelligenti.
Un’intelligenza artificiale multimodale in grado di comprendere il parlato, i video, le immagini e il testo, combinata con occhiali che consentono di vedere ciò che si vede e di sentire ciò che si sente, ridefinirà il modo in cui interagiamo con il mondo, proprio come ha fatto lo smartphone.
Infine, una strana curiosità: Orione era il grande cacciatore della mitologia greca (ed è anche il nome della costellazione che potete vedere in cielo). Ci sono molte versioni della sua storia, ma una comune è che il re di Chio lo accecò dopo che Orione aveva stuprato la figlia del re da ubriaco. Alla fine riacquistò la vista guardando il sole nascente.
È una storia drammatica, ma forse non è il nome migliore per un paio di occhiali.