Nuovi standard clinici per valutare l’AI

Le linee guida garantiscono che la ricerca sull’intelligenza artificiale in campo medico sia soggetta allo stesso controllo dello sviluppo dei farmaci e dei test diagnostici.

di Will Douglas Heaven

Un consorzio internazionale di esperti medici ha introdotto i primi standard ufficiali per le sperimentazioni cliniche che coinvolgono l’intelligenza artificiale. La novità arriva in un momento in cui l’attenzione mediatica intorno all’AI medica è al culmine, con affermazioni gonfiate e non verificate sull’efficacia di alcuni strumenti che minacciano di minare la fiducia delle persone in questo settore di ricerca. 

Annunciati su “Nature Medicine”, “British Medical Journal” e “Lancet”, i nuovi standard estendono due serie di linee guida su come vengono condotti e segnalati gli studi clinici che sono già utilizzati in tutto il mondo per lo sviluppo di farmaci, test diagnostici e altri interventi medici. I ricercatori di intelligenza artificiale dovranno ora descrivere una serie di parametri: le competenze necessarie per utilizzare uno strumento di intelligenza artificiale, l’ambiente in cui viene valutata l’intelligenza artificiale, le modalità di interazione dell’uomo con l’AI, l’analisi dei casi di errore e altro ancora.

Gli studi randomizzati controllati sono il modo più affidabile per dimostrare l’efficacia e la sicurezza di una terapia o di una tecnica clinica. Sono alla base sia della pratica medica sia della politica sanitaria, ma la loro affidabilità dipende dal fatto che i ricercatori si attengano a linee guida rigorose nel modo in cui i loro studi vengono condotti e riportati. Negli ultimi anni, molti nuovi strumenti di intelligenza artificiale sono stati sviluppati e descritti in riviste mediche, ma la loro efficacia è stata difficile da confrontare e valutare a causa della diversità tra le sperimentazioni. 

A marzo, uno studio del BMJ ha avvertito che la scarsa qualità della ricerca e le affermazioni esagerate su quanto fosse buona l’AI nell’analisi delle immagini mediche rappresentavano un rischio per milioni di pazienti. La mancanza di standard comuni ha anche consentito alle aziende private di parlare dell’efficacia della loro intelligenza artificiale senza dover affrontare il controllo applicato ad altri tipi di intervento medico o diagnostico. 

Per esempio, Babylon Health, un’azienda britannica fornitrice di servizi sanitari digitali,è stata criticata nel 2018 per aver annunciato che il suo chatbot diagnostico offriva prestazioni “simili ai medici umani”, sulla base di un test che i critici hanno sostenuto fosse fuorviante. Non si tratta di un caso isolato. Gli sviluppatori affermano da tempo che le AI mediche superano o eguagliano le capacità umane e la pandemia ha accelerato questo processo. Nella maggior parte dei casi, la valutazione dell’AI viene eseguita internamente e in condizioni favorevoli. 

Queste riflessioni non implicano che l’AI non possa battere i medici umani. In effetti, la prima valutazione indipendente di uno strumento diagnostico di intelligenza artificiale che ha superato gli esseri umani nell’individuazione del cancro alle mammografie è stata pubblicata solo il mese scorso.

Lo studio ha rilevato che uno strumento realizzato da Lunit AI e utilizzato in alcuni ospedali della Corea del Sud era ancora più preciso se abbinato a un medico umano. Separando il buono dal cattivo, i nuovi standard renderanno questo tipo di valutazione indipendente più facile, portando in ultima analisi a un’AI medica più affidabile.

Immagine: Kyle McDonald / Flickr

(rp)

Related Posts
Total
0
Share