I “dati radioattivi” di Facebook

Un team di Facebook AI Research ha sviluppato un modo per tracciare esattamente quali immagini in un set di dati sono state utilizzate per addestrare un modello di apprendimento automatico.

di Douglas Heaven

I ricercatori, effettuando impercettibili modifiche alle immagini e creando una sorta di filigrana, sono stati in grado di apportare minuscole modifiche corrispondenti al modo in cui un classificatore di immagini addestrato su quelle immagini funziona, senza comprometterne la precisione complessiva. Ciò ha permesso in seguito di abbinare i modelli alle immagini utilizzate per addestrarli.

Facebook chiama la tecnica “dati radioattivi” perché è analoga all’uso dei marcatori radioattivi in medicina, che sono visibili ai raggi X. Evidenziando quali dati sono stati utilizzati per addestrare un’intelligenza artificiale, i modelli sono più trasparenti, segnalando potenziali fonti di pregiudizio, come un modello addestrato su un set di immagini non rappresentativo, o rivelando quando un set di dati è stato utilizzato senza autorizzazione o per scopi inappropriati.

Una grande sfida era cambiare le immagini senza danneggiare il modello risultante. Piccole modifiche all’input di un’intelligenza artificiale a volte possono portare a errori stupidi, come scambiare una tartaruga per una pistola o un bradipo per un’auto da corsa.

Facebook ha progettato le sue filigrane in modo che ciò non accadesse. Il team ha testato la sua tecnica su ImageNet, un popolare set di dati con oltre 14 milioni di immagini, e ha scoperto di essere in grado di rilevare l’uso di dati “radioattivi” con la massima affidabilità in un particolare modello anche quando era stato contrassegnato solo l’1 per cento delle immagini.

Immagine: Jon Tyson | Unsplash

(rp)

Related Posts
Total
0
Share