• Bo Li
Ingannare l'IA, per renderla più sicura
Con la tecnica degli attacchi antagonistici, vale a dire la manipolazione di dati di input per ingannare le reti neurali , Bo Li e i suoi colleghi dell’University of Illinois, a Urbana Champaign, cercano di impedire che le reti neurali vengano indotte all'errore nel riconoscimento delle immagini.
di Will Douglas Heaven 11-07-20
Alcuni anni fa, Bo Li e i suoi colleghi hanno apposto piccoli adesivi in bianco e nero su un segnale di stop in un modello simile a un graffito che passavano inosservati agli occhi umani e non oscuravano le chiare lettere del segno. Tuttavia, la disposizione è stata volutamente progettata in modo tale che se un veicolo autonomo si avvicinava, le reti neurali che alimentavano il suo sistema di visione avrebbero letto male il segnale di stop che indicava un limite di velocità di 70 km all’ora.