GETTY IMAGES

Apple sta studiando la possibilità di abbandonare la parola “Siri” per avviare l’IA

I test mirano a verificare se i modelli di intelligenza artificiale sono in grado di determinare quando si sta parlando al telefono senza bisogno di una frase di attivazione.

I ricercatori di Apple stanno valutando se sia possibile utilizzare l’intelligenza artificiale per rilevare quando un utente parla a un dispositivo come l’iPhone, eliminando così la necessità tecnica di una frase o una parola di attivazione come “Siri”, secondo un documento pubblicato venerdì.

In uno studio, caricato su Arxiv e che non è stato sottoposto a peer-review, i ricercatori hanno addestrato un modello linguistico di grandi dimensioni utilizzando sia il parlato catturato dagli smartphone sia i dati acustici del rumore di fondo per cercare modelli che potessero indicare quando si desidera un aiuto da parte del dispositivo. Il modello è stato costruito in parte con una versione di GPT-2 di OpenAI, “poiché è relativamente leggero e può potenzialmente funzionare su dispositivi come gli smartphone”, scrivono i ricercatori. Il documento descrive oltre 129 ore di dati e dati testuali aggiuntivi utilizzati per addestrare il modello, ma non specifica la fonte delle registrazioni che sono state inserite nel set di addestramento. Sei dei sette autori sono affiliati ad Apple e, secondo i loro profili LinkedIn, tre di loro lavorano nel team Siri dell’azienda. (Il settimo autore ha svolto un lavoro correlato all’articolo durante uno stage in Apple).

I risultati sono stati promettenti, secondo il documento. Il modello è stato in grado di fare previsioni più accurate rispetto ai modelli solo audio o solo testo, migliorando ulteriormente con l’aumentare delle dimensioni dei modelli. Oltre a esplorare la questione della ricerca, non è chiaro se Apple abbia intenzione di eliminare la frase di attivazione “Ehi Siri”.

Né Apple né i ricercatori del documento hanno risposto immediatamente alle richieste di commento.

Attualmente, Siri funziona trattenendo piccole quantità di audio e non inizia a registrare o a prepararsi a rispondere alle richieste dell’utente finché non sente la frase di attivazione. L’eliminazione della richiesta “Ehi Siri” potrebbe aumentare le preoccupazioni sul fatto che i nostri dispositivi siano “sempre in ascolto”, ha dichiarato Jen King, ricercatrice per la privacy e la politica dei dati presso lo Stanford Institute for Human-Centered Artificial Intelligence.

Il modo in cui Apple gestisce i dati audio è già stato messo sotto esame dai sostenitori della privacy. Nel 2019, un articolo del Guardian ha rivelato che gli appaltatori del controllo qualità di Apple ascoltavano regolarmente l’audio privato raccolto dagli iPhone mentre lavoravano con i dati di Siri, comprese le conversazioni sensibili tra medici e pazienti. Due anni dopo, Apple ha risposto con modifiche alla politica, tra cui la memorizzazione di più dati sui dispositivi e la possibilità per gli utenti di scegliere di non consentire l’utilizzo delle loro registrazioni per migliorare Siri. Nel 2021 è stata intentata una class action contro l’azienda in California, in cui si sostiene che Siri viene attivato anche quando non è attivato. 

Secondo King, il messaggio “Ehi Siri” può avere una funzione importante per gli utenti. Le frasi forniscono un modo per sapere quando il dispositivo è in ascolto e la loro eliminazione potrebbe significare maggiore comodità ma meno trasparenza da parte del dispositivo, ha dichiarato King a MIT Technology Review. La ricerca non specifica se la frase di attivazione sarà sostituita da qualsiasi altro segnale che indichi che l’assistente AI è attivo.

“Sono scettico sul fatto che un’azienda debba imporre questa forma di interazione”, afferma King.

Il documento è uno dei tanti segnali recenti che indicano che Apple, percepita come in ritardo rispetto ad altri giganti della tecnologia come Amazon, Google e Facebook nella corsa all’intelligenza artificiale, sta progettando di incorporare più AI nei suoi prodotti. Secondo le notizie riportate per la prima volta da VentureBeat, Apple sta costruendo un modello di intelligenza artificiale generativa chiamato MM1 in grado di lavorare su testo e immagini, che sarebbe la risposta dell’azienda a ChatGPT di Open AI e a una serie di altri chatbot dei principali giganti tecnologici. Nel frattempo, Bloomberg ha riferito che Apple è in trattativa con Google per l’utilizzo del modello di IA Gemini negli iPhone e venerdì il Wall Street Journal ha riferito che l’azienda ha avviato colloqui con Baidu per l’utilizzo dei suoi prodotti di IA.

Related Posts
Total
0
Share