Non ogni etica è etica
di Gian Piero Jacobelli 27-09-20
Poche altre volte nella storia della civiltà occidentale è avvenuto che le problematiche tecnologiche, per lo più relative al binomio efficienza/efficacia, si trovassero tanto associate alle problematiche etiche, anche al di là delle istanze di sicurezza che, per esempio, riguardano le fonti energetiche e quelle farmaceutiche, senza dimenticare la deprecabile, ma permanente “corsa agli armamenti”.

Questa stringente e sintomatica associazione si sta verificando oggi a proposito della Intelligenza Artificiale, al punto - come si legge nell'articolo di Abhishek Gupta e Victoria Hearh, che abbiamo pubblicato pochi giorni fa (Gli standard etici dell'AI riflettono la visione dei paesi forti, 14 settembre 2020) - che lo stesso Gupta, ingegnere di machine learning presso Microsoft, ha fondato il Montreal AI Ethics Institute, allo scopo di valutare e se possibile rimuovere le pregiudiziali che si annidano nella Intelligenza Artificiale.

In poche parole, scrivono i due autori, «i sistemi di Intelligenza Artificiale hanno ripetutamente dimostrato di causare problemi che colpiscono in modo sproporzionato i gruppi emarginati, a vantaggio di pochi privilegiati». I motivi sono facilmente intuibili: a realizzare i sistemi di Intelligenza Artificiale sono soprattutto i cosiddetti “paesi forti” che, anche inconsapevolmente, vengono indotti dalla loro stessa forza a perpetuare una attitudine “imperialistica”. Secondo cui alla tecnologia si attribuisce anche il compito di diffondere i sistemi di valore occidentali, le loro logiche operative e, molto più discutibilmente, quelle visioni del mondo in cui si agitano tutti i pregiudizi relativi alle differenze tra noi e gli altri.

«Allo stato attuale», sottolinea Gupta, «la riflessione etica nella Intelligenza Artificiale è in buona parte limitata a lingue, idee, problemi che caratterizzano alcune zone, principalmente il Nord America, l'Europa occidentale e l'Asia orientale». Su questa critica ai condizionamenti etici che caratterizzano la Intelligenza Artificiale, non si può non essere d'accordo. Meno d'accordo ci sembra di essere sull'equivoco che si manifesta nella nozione di etica implicita in queste preoccupazioni: una nozione che ci appare irretita negli stessi vincoli pregiudiziali che vorrebbe combattere.

Come ci è qui avvenuto di rilevare anche in altre occasioni, la dimensione etica non ha molto a che vedere con la dimensione morale, in quanto, mentre questa ultima dipende dai modelli culturali e comportamentali prevalenti, la prima tende a configurare scenari relazionali innovativi, derivanti da incontri e intese imprevedibili.