Seguici
Iscriviti alla nostra newsletter

    Una nuova etica per l’IA

    Jess Whittlestone del Centro Leverhulme for the Future of the Intelligence dell’Università di Cambridge e i suoi colleghi hanno pubblicato un articolo su “Nature Machine Intelligence” sostenendo che è necessario ridefinire urgentemente la dimensione etica nel mondo dell’intelligenza artificiale. 

    di Will Douglas Heaven

    Per Whittlestone, un cambiamento etico significa anticipare i problemi prima che si verifichino, trovare modi migliori per integrare la sicurezza e l’affidabilità nei sistemi di intelligenza artificiale e enfatizzare le competenze tecniche a tutti i livelli di sviluppo e utilizzo della tecnologia. Al centro delle sue raccomandazioni c’è l’idea che l’etica deve diventare semplicemente una parte del modo in cui l’IA viene prodotta e utilizzata, piuttosto che un componente aggiuntivo o una riflessione posticipata. 

    Alla fine, l’intelligenza artificiale sarà più facile da implementare se indirizzata dalla stella polare dell’etica. Ne abbiamo parlato con la Whittlestone in questa intervista.

    Perché abbiamo bisogno di un nuovo tipo di etica per l’IA?

    Con questa pandemia ci troviamo improvvisamente in una situazione in cui le persone si chiedono se l’IA potrebbe essere utile per salvare delle vite. Ma la crisi ha chiarito che non abbiamo procedure etiche abbastanza solide per l’IA da implementare in sicurezza, e certamente quelle disponibili non possono essere migliorate rapidamente.

    Cosa c’è di sbagliato nell’etica che abbiamo?

    Ho trascorso gli ultimi due anni a rivedere le iniziative sull’etica dell’IA, osservandone i limiti e chiedendo cos’altro ci serve. Rispetto, per esempio, all’etica biomedica, le linee guida che abbiamo per l’IA appaiono poco operative. Si concentrano troppo su principi di alto livello. Siamo tutti d’accordo sul fatto che l’IA dovrebbe essere usata per il bene comune. Ma cosa significa veramente? E cosa succede quando i principi di alto livello entrano in conflitto?

    Per esempio, l’IA ha il potenziale per salvare vite umane, ma ciò potrebbe comportare un costo per le libertà civili come la privacy. Come possiamo affrontare questi compromessi in modi accettabili in situazioni diverse? Non abbiamo ancora capito come affrontare gli inevitabili disaccordi. Inoltre, l’etica dell’IA tende a rispondere ai problemi esistenti invece di anticipare quelli nuovi.

    La maggior parte dei problemi di cui le persone discutono oggi riguardo ai pregiudizi legati agli algoritmi sono emersi solo quando la teoria è diventata azione quotidiana, come nei casi delle decisioni prese sull’ ordine pubblico e sulla libertà condizionale.

    Ma l’etica deve essere proattiva e prepararsi a ciò che potrebbe andare storto, non a ciò che è già andato storto. Ovviamente, non possiamo prevedere il futuro. Ma man mano che questi sistemi diventano più potenti e vengono utilizzati in domini con poste più alte, i rischi aumenteranno.

    Quali opportunità abbiamo perso non avendo messo in atto queste procedure?

    E’ un dato di fatto che i sistemi di apprendimento automatico non sono abbastanza maturi, ma ci sono alcune situazioni interessanti in cui l’IA viene testata per la diagnosi medica o per l’allocazione delle risorse negli ospedali. Avremmo potuto utilizzare questi tipi di sistemi più ampiamente, riducendo parte del carico sull’assistenza sanitaria, se fossero stati progettati fin dall’inizio con la dovuta attenzione agli aspetti etici. Quando si definisce l’allocazione delle risorse, si sta decidendo quali pazienti hanno la massima priorità. È necessario un framework etico incorporato prima di utilizzare l’IA per aiutare in questo tipo di decisioni.

    Quindi l’etica d’emergenza è semplicemente un appello a migliorare l’etica AI esistente?

    Fa parte di essa. Il fatto che non abbiamo direttive solide e semplici da adottare per l’etica dell’IA rende le situazioni più difficili in uno scenario di crisi. Ma oggi è diffusa la necessità di interventi lineari. Si sente molto parlare della mancanza di trasparenza dei sistemi di apprendimento automatico che vengono valutati alla stregua di scatole nere. Ma esiste un altro tipo di trasparenza, che inerisce al modo in cui i sistemi vengono utilizzati.

    Ciò è particolarmente importante in una crisi, quando i governi e le organizzazioni stanno prendendo decisioni urgenti che comportano compromessi. A quali aspetti della salute viene data la priorità? Come si salva la vita senza distruggere l’economia? Se un’intelligenza artificiale viene utilizzata nel processo decisionale pubblico, la trasparenza è più importante che mai.

    Cosa deve cambiare?

    Dobbiamo pensare all’etica in modo diverso. Non dovrebbe essere qualcosa di marginale o un peso da trascinare. Dovrebbe semplicemente essere parte del modo in cui costruiamo questi sistemi, un perno intorno al quale si muovono i progetti. A volte ho l’impressione che “etica” sia la parola sbagliata. 

    Voglio dire che i ricercatori e gli esperti di apprendimento automatico devono essere addestrati a riflettere sulle implicazioni di ciò che stanno costruendo, sia che stiano facendo ricerche fondamentali come progettare un nuovo algoritmo di apprendimento di rinforzo o qualcosa di più pratico come lo sviluppo un’applicazione sanitaria. 

    Se il loro lavoro prende forma in prodotti e servizi del mondo reale, quali conseguenze provoca? Che tipo di problemi potrebbe sollevare? Il confronto è già iniziato. Stiamo lavorando con alcuni ricercatori dell’IA per trasferire questa visione del mondo nel loro lavoro. Siamo sulla buona strada. Per esempio, NeurIPS [una conferenza di spicco dell’IA] ora chiede ai ricercatori di includere una dichiarazione alla fine dei loro documenti che delinei potenziali impatti sociali del loro lavoro.

    Lei sostiene che abbiamo bisogno di persone con competenze tecniche a tutti i livelli di progettazione e utilizzo dell’IA. Perché?

    Non sto dicendo che la competenza tecnica sia l’essenza dell’etica, ma è ineliminabile. Non sto scaricando tutte la responsabilità sui ricercatori, perché molte delle decisioni importanti su come viene utilizzata l’IA vengono prese più in alto nella catena, dall’industria o dai governi. Temo, però, che le persone che prendono queste decisioni non capiscano sempre cosa potrebbe andare storto. Quindi è necessario coinvolgere chi ha competenze tecniche. 

    Le nostre intuizioni su ciò che l’IA può e non può fare non sono molto affidabili. Ciò di cui si ha bisogno a tutti i livelli di sviluppo dell’IA sono esperti che comprendono i dettagli dell’apprendimento automatico per collaborare con specialisti in campo etico. Ma non è affatto semplice. Le persone con diverse aree di competenza spesso parlano delle cose in modi differenti. 

    Ciò che un ricercatore di machine learning intende per privacy può essere molto diverso da ciò che un avvocato intende per privacy, e si può finire con persone che imboccano strade parallele senza incontrarsi mai. Ecco perché è importante che questi diversi gruppi si abituino a lavorare insieme.

    La sua è una proposta di revisione istituzionale e culturale piuttosto impegnativa. Cosa le fa pensare che le persone vorranno impegnarsi su questo fronte invece di istituire commissioni etiche o comitati di supervisione?

    Ritengo che la crisi in cui siamo costringa inevitabilmente le persone a riconoscere l’importanza delle soluzioni pratiche. Forse, invece di creare commissioni, qualcuno dirà: “Dobbiamo agire! E farlo correttamente”.

    Immagine: Ms Tech / Pixabay

    (rp)

    Related Posts
    Continua

    Come e perché imparare dalle api

    La cosiddetta "intelligenza di sciame” è applicabile anche alle comunità umane? Gli esperti Paola Scarpa, Andrea Pietrini, Federico Frattini a confronto su un tema affascinante per le società presenti e future
    Total
    0
    Share