L’IA confonde una zona allagata con una toilette

Un nuovo set di dati ha lo scopo di insegnare ai sistemi di visione artificiale a riconoscere le immagini dei disastri naturali per risolvere più rapidamente le situazioni di emergenza.

di Karen Hao

Andrew Weinert e i suoi colleghi erano profondamente frustrati. Dopo che l’uragano Maria ha colpito Portorico, i ricercatori del Lincoln Laboratory del MIT hanno lavorato duramente per cercare di aiutare la Federal Emergency Management Agency (FEMA) a valutare i danni.

Avevano in mano il set di dati perfetto: 80.000 riprese aeree della regione scattate dalla Civil Air Patrol subito dopo il disastro.

Ma c’era un problema: un numero eccessivo di dati da ordinare manualmente e i sistemi commerciali di riconoscimento delle immagini che non riuscivano a identificare qualcosa di significativo.

Un esempio particolarmente eclatante della situazione, che chiarisce il tipo di problema da affrontare, è rappresentato dall’ampio database ImageNet, la punta di diamante del settore, che ha etichettato un’immagine di una zona alluvionata come toilette.

“Il contenuto informativo era di alta qualità, ma di difficile accessibilità”, spiega Weinert.

In qualsiasi scenario catastrofico su larga scala, le squadre di soccorso di FEMA, l’ente federale per la gestione delle emergenze, potrebbero risparmiare tempo e risorse significativi esaminando i dettagli delle condizioni sul campo prima del loro arrivo.

Immagini del database.Per gentile concessione del MIT Lincoln Laboratory

Ma la maggior parte dei sistemi di visione artificiale sono addestrati sulle normali immagini quotidiane, quindi non possono individuare in modo affidabile i dettagli rilevanti nelle zone disastrate.

Il team di ricercatori è stato quindi costretto a compilare e annotare una nuova serie di foto e filmati specifici per rispondere alle emergenze.

Questa settimana è stato rilasciato il set di dati insieme a un documento nella speranza che in futuro verranno utilizzati per addestrare i sistemi di visione artificiale.

Il set di dati include oltre 620.000 immagini e 96,5 ore di video che comprendono immagini provenienti da tutti i 50 stati americani.

La maggior parte dei dati proveniva da database governativi o da video Creative Commons su YouTube; una piccola parte è stata anche filmata dallo stesso staff del Lincoln Lab.

Per renderlo veramente utile ai soccorritori, i ricercatori hanno preso in considerazione vari scenari di emergenza che potrebbero indurre in errore i normali sistemi di classificazione delle immagini.

Per esempio, hanno definito la presenza di automobili in zone allagate; la maggior parte dei sistemi vede l’acqua e, in linea con i dati di addestramento degli algoritmi, identifica immediatamente il veicolo come una barca.

I ricercatori hanno anche dedicato molto tempo a capire il modo migliore per annotare le immagini, per offrire dati significativi ai soccorritori per le loro missioni.

Per fare in modo che lo schema delle annotazioni fosse abbastanza semplice da consentire a chi etichetta i dati di fare un lavoro rapido e privo di errori, hanno preso a modello la struttura organizzativa di ImageNet, che raggruppa le foto in categorie di oggetti sempre più specifiche, come animali, cani, quindi labrador retriever.

Invece di categorie riferite a oggetti, tuttavia, i ricercatori hanno raggruppato le foto in base alle caratteristiche del disastro naturale, mantenendo la struttura a piramide rovesciata: ci sono danni? C’è acqua? ? L’acqua dovrebbe trovarsi in quella zona?

Queste caratteristiche consentiranno agli esperti di visione artificiale di ordinare facilmente il set di dati e selezionare segmenti rilevanti per formare sistemi di riconoscimento delle immagini relative alle catastrofi.

Tali sistemi dovrebbero aiutare un soccorritore a elaborare rapidamente le immagini provenienti da nuovi scenari di catastrofe per avere un’idea delle aree più disastrate, le condizioni sul campo e come attrezzarsi per la loro missione.

Weinert afferma che il sistema è ancora in fase di elaborazione, ma è convinto del suo potenziale. “Se la nostra proposta di classificazione funzionerà, Amazon, Task Rabbit e piattaforme simili potrebbero iniziare a usarlo come standard di settore”, dice Weinert “e iniziare a sviluppare sistemi di riconoscimento più utili in caso di catastrofi”.

I ricercatori stanno ora mettendo a disposizione il set di dati per il National Institute of Standards and Technology e hanno iniziato a lavorare con altre organizzazioni per migliorare il sistema di riconoscimento delle immagini.

Immagine: Alluvione nel Midwest scambiata dai sistemi di IA per una toilette. Per gentile concessione del MIT Lincoln Laboratory

Related Posts
Total
0
Share