Gli hacker hanno ingannato una Tesla

Un adesivo di poco più di due centimetri ha ingannato le telecamere della Tesla e ha indotto la macchina ad andare a una velocità di 80 km l’ora oltre quella consentita.

di Patrick Howell O’Neill

I ricercatori hanno ingannato il sistema di telecamere Mobileye EyeQ3 dell’auto modificando leggermente un segnale di limite di velocità sul lato di una strada in un modo praticamente non visibile a un automobilista.

Questa dimostrazione della azienda di sicurezza informatica McAfee è l’ultima indicazione che l’apprendimento automatico contraddittorio può potenzialmente ingannare i sistemi di guida autonomi, lanciando una sfida sulla sicurezza a coloro che sperano di commercializzare la tecnologia.

Come hanno spiegato Steve Povolny e Shivangee Trivedi del team Advanced Threat Research di McAfee, i sistemi di telecamere Mobileye EyeQ3 leggono i limiti di velocità e trasmettono tali informazioni a funzioni di guida autonome come il controllo automatico della velocità di Tesla.

I ricercatori hanno apposto un adesivo quasi invisibile su un segnale di limite di velocità. La fotocamera ha letto il segno come 85 miglia anziché 35 e, nei test, sia la Tesla Model X del 2016 sia la Model S di quell’anno hanno accelerato di 80 km l’ora.

Questa è solo l’ultima di una montagna crescente di ricerche che mostrano come i sistemi di apprendimento automatico possano essere ingannati in situazioni potenzialmente letali. In un lungo studio di 18 mesi, Trivedi e Povolny hanno replicato e ampliato una serie di attacchi ai sistemi di apprendimento automatico, tra cui uno del professor Dawn Song della UC Berkeley che utilizzava adesivi per far credere a un’auto a guida autonoma che un segnale di stop fosse un segnale che indicava un limite di velocità di 70 km miglia l’ora.

Il limite di velocità modificato da 35 miglia a 85.McAfee

L’anno scorso, gli hacker hanno indotto una Tesla a spostarsi nella corsia sbagliata in mezzo al traffico posizionando adesivi sulla strada. “Il motivo per cui stiamo studiando l’apprendimento automatico così a fondo è perchè i sistemi intelligenti in futuro svolgeranno compiti che ora vengono svolti dagli umani”, ha detto Povolny. “Se non prestiamo grande attenzione a come sono progettati i sistemi, allora i computer interconnessi diventeranno un obiettivo allettante per gli hacker”.

Man mano che i sistemi autonomi proliferano, il problema si estende agli algoritmi di apprendimento automatico ben oltre i veicoli: uno studio del marzo 2019 ha mostrato che i sistemi di apprendimento automatico in campo medico sono stati indotti a dare diagnosi errate.

Lo scorso anno, la ricerca di McAfee è stata inviata a Tesla e Mobileye EyeQ3. Tesla non ha risposto a una richiesta di commento di “MIT Technology Review” americana, ma ha accettato i risultati di McAfee e ha affermato che i problemi non sarebbero stati risolti in questa generazione di hardware. Un portavoce di Mobileye ha invece minimizzato la ricerca sostenendo che il segnale modificato avrebbe ingannato persino un essere umano, portandolo a leggere 85 miglia anziché 35.

L’azienda non considera un errore quello della fotocamera e, nonostante il ruolo che questa tecnologia svolge nel controllo della velocità di Tesla, ricorda che non è l’elemento essenziale della guida autonoma.

Il portavoce di Mobileye ha dichiarato in una nota che la tecnologia dei veicoli autonomi non si baserà solo sul rilevamento, ma sarà supportata da varie altre tecnologie e dati, come la mappatura in crowdsourcing, per garantire l’affidabilità delle informazioni ricevute dai sensori della fotocamera e offrire ridondanze e sicurezza più solide”.

Da allora, Tesla è passata a fotocamere proprietarie su modelli più recenti e Mobileye EyeQ3 ha rilasciato diverse nuove versioni delle sue fotocamere che nei test preliminari non erano vulnerabili a questo tipo di attacco.

Povolny ha comunque ammesso che le Tesla con la prima versione dell’hardware non possono essere aggiornate all’hardware più recente. “Quello che stiamo cercando di fare è cercare di sensibilizzare consumatori e venditori sui tipi di difetti possibili”, ha concluso Povolny “Non accettiamo l’idea di diffondere la paura e dire che se si guida questa macchina, si corre il rischio di finire contro qualche ostacolo”.

Immagine: Tesla

(rp)

Related Posts
Total
0
Share