• Getty Images
L’addestramento dell'AI è ancora imperfetto
La tecnica utilizzata per costruire la maggior parte dei modelli di apprendimento automatico che utilizziamo oggi non è in grado di stabilire se questi sistemi funzioneranno o meno nel mondo reale, e questo è un problema.
di Will Douglas Heaven 20-11-20
Non è un segreto che i modelli di machine learning sintonizzati e ottimizzati per prestazioni quasi perfette in laboratorio spesso falliscono in contesti reali. Questa situazione è in genere attribuita a una mancata corrispondenza tra i dati su cui l'AI è stata addestrata e testata e i dati che incontra nel mondo, un problema noto come spostamento dei dati. Per esempio, un'intelligenza artificiale addestrata per individuare i segni di malattia in immagini mediche di alta qualità si troverà di fronte a immagini sfocate catturate da una fotocamera economica in una clinica in piena attività. 
  
Ora un gruppo di 40 ricercatori di sette diversi team di Google ha identificato un’altra delle principali cause di fallimento dei modelli di apprendimento automatico. La cosiddetta "sottospecificazione" potrebbe essere un problema ancora più grande dello spostamento dei dati. "Chiediamo ai modelli di machine learning più di quanto siano in grado di garantire con il nostro approccio attuale", afferma Alex D'Amour, che ha guidato lo studio.