Skip to main content

In questo estratto del suo libro “The Reasonable Robot: Artificial Intelligence and the Law”, Ryan Abbott sostiene che le leggi dovrebbero equiparare l’AI e persone in modo da non penalizzare l’occupazione e le entrate fiscali.

di Ryan Abbott

La pandemia infuria con conseguenze devastanti e problemi di vecchia data, con pregiudizi razziali e polarizzazione politica che stanno arrivando al culmine. L’intelligenza artificiale ha il potenziale per aiutarci ad affrontare queste sfide. Tuttavia, i rischi dell’AI sono diventati sempre più evidenti. Gli studiosi hanno illustrato casi di opacità dell’AI, scelte di progettazione che si traducono in pregiudizi, impatti negativi sul benessere personale e sulle interazioni sociali e cambiamenti nelle dinamiche di potere tra individui, aziende e stato, che contribuiscono all’aumento delle disuguaglianze. Se l’intelligenza artificiale viene sviluppata e utilizzata in modi buoni o dannosi dipenderà in gran parte dai quadri giuridici che la disciplinano e la regolano.

Dovrebbe esserci un nuovo principio guida per la regolamentazione dell’AI, un principio di neutralità giuridica in cui si affermi che la legge dovrebbe tendere a non discriminare tra intelligenza artificiale e comportamento umano. Attualmente, il sistema legale non è neutrale. Un’intelligenza artificiale che è significativamente più sicura di una persona può essere la scelta migliore per guidare un veicolo, ma le leggi esistenti potrebbero vietare i veicoli senza conducente. 

Anche se una persona può produrre beni di qualità superiore rispetto a un robot a un costo simile, un’azienda può procedere all’ automatizzazione perché consente di risparmiare sulle tasse. L’intelligenza artificiale può essere migliore nel generare determinati tipi di innovazione, ma le aziende potrebbero non volerla utilizzare se limita la proprietà dei diritti di proprietà intellettuale. In tutti questi casi, una normativa neutrale andrebbe a vantaggio del benessere umano, aiutando la legge a raggiungere meglio i suoi obiettivi politici.

Si prenda in considerazione il sistema fiscale americano. L’AI e le persone sono impegnate nello stesso tipo di attività produttive dal punto di vista commerciale, ma la tassazione è diversa a seconda di chi o cosa fa il lavoro. Per esempio, l’automazione consente alle aziende di evitare le tasse sui salari versate dal datore di lavoro. Quindi, se un chatbot costa, al netto delle imposte, a un’azienda come un dipendente che fa lo stesso lavoro (o anche un po ‘di più), in realtà è vantaggioso economicamente per l’azienda.

Oltre ad evitare le tasse sui salari, le aziende possono accelerare le detrazioni fiscali per alcune AI nel caso abbiano una componente fisica o rientrino in determinate eccezioni previste per il software. In altre parole, i datori di lavoro possono richiedere anticipatamente gran parte del costo di alcune AI come detrazione fiscale. 

Infine, i datori di lavoro ricevono anche una serie di incentivi fiscali indiretti per l’automazione. In breve, anche se le leggi fiscali non sono state progettate per incoraggiare l’automazione, favoriscono l’AI rispetto alle persone perché il lavoro è tassato più del capitale.

E l’intelligenza artificiale non paga le tasse! Le imposte sul reddito e sull’occupazione sono le maggiori fonti di entrate per il governo, e insieme rappresentano quasi il 90 per cento delle entrate fiscali federali totali. L’AI, inoltre, non acquista beni e servizi, quindi non le vengono addebitate le tasse sulle vendite, né paga le tasse sugli immobili. L’intelligenza artificiale semplicemente non è un contribuente. Se domani tutto il lavoro fosse automatizzato, la maggior parte della base imponibile scomparirebbe immediatamente.

Con la robotica, il governo perde entrate, potenzialmente centinaia di miliardi di dollari in totale. Ciò potrebbe limitare in modo significativo la capacità del governo di pagare per cose come la sicurezza sociale, la difesa nazionale e l’assistenza sanitaria. Se le persone alla fine ottengono lavori comparabili, la perdita di entrate è solo temporanea. Ma se la perdita di posti di lavoro è permanente, l’intera struttura fiscale deve cambiare.

Il dibattito sulla tassazione dei robot è iniziato nel 2017 dopo che il Parlamento europeo ha respinto una proposta di prendere in considerazione una tassa sui robot. Successivamente Bill Gates ha accettato l’idea, ma oggi la questione è ancora più critica, poiché le aziende si rivolgono all’uso di robot a causa dei rischi legati alla pandemia per i lavoratori. Molte aziende si chiedono: perché non sostituire le persone con macchine?

L’automazione non dovrebbe essere scoraggiata in linea di principio, ma è fondamentale elaborare politiche fiscali neutre per evitare di sovvenzionare usi inefficienti della tecnologia e garantire le entrate pubbliche. L’automazione ai fini del risparmio fiscale potrebbe non rendere le aziende più produttive o comportare vantaggi per i consumatori e potrebbe comportare diminuzioni della produttività per ridurre gli oneri fiscali. Questo non è socialmente vantaggioso.

Cambridge University Press

Il vantaggio della neutralità fiscale tra le persone e l’AI è che consente al mercato di adeguarsi senza distorsioni fiscali. Le aziende dovrebbero quindi automatizzare solo nel caso di maggiore efficienza o produttività. Poiché l’attuale sistema fiscale favorisce l’automazione, un passaggio a un sistema fiscale neutrale aumenterebbe l’attrattiva dei lavoratori. 

Se la previsione pessimistica di un futuro con un aumento sostanziale della disoccupazione dovuto all’automazione si rivelasse corretta, le entrate derivanti da una tassazione neutra potrebbero essere utilizzate per fornire una migliore formazione ai lavoratori e persino per sostenere programmi di assistenza sociale come il reddito minimo universale.

Una volta che i responsabili politici concordano di non voler avvantaggiare l’AI rispetto ai lavoratori umani, potrebbero ridurre le tasse sulle persone o ridurre i benefici fiscali concessi all’intelligenza artificiale. Per esempio, le tasse sui salari (che pagano le imprese sui salari dei loro lavoratori) potrebbero essere eliminate, per favorire la neutralità, ridurre la complessità fiscale e porre fine alla tassazione di qualcosa di valore sociale: il lavoro umano.

Più ambiziosamente, la neutralità giuridica nei confronti dell’AI potrebbe indurre un cambiamento più radicale nel modo in cui viene tassato il capitale. Sebbene i nuovi regimi fiscali possano prendere di mira direttamente l’intelligenza artificiale, ciò probabilmente aumenterebbe i costi di conformità e renderebbe il sistema fiscale più complesso. Inoltre “tasserebbe l’innovazione” nel senso che potrebbe penalizzare i modelli di business che sono legittimamente più produttivi con meno manodopera umana. 

Una soluzione migliore sarebbe aumentare le tasse sulle plusvalenze e le aliquote dell’imposta sulle società per ridurre la dipendenza da fonti di reddito come le imposte sul reddito e sui salari. Anche prima che l’AI entrasse in scena, alcuni esperti fiscali hanno sostenuto per anni che le tasse sul reddito da lavoro erano troppo alte rispetto ad altre tasse. L’intelligenza artificiale può fornire l’impulso necessario per affrontare finalmente questo problema.

Gli oppositori a una maggiore tassazione del capitale basano in gran parte le loro argomentazioni su preoccupazioni per la concorrenza internazionale. Lawrence Summers, un economista di Harvard, sostiene, per esempio, che “è probabile che le tasse sulla tecnologia spingano la produzione offshore piuttosto che creare posti di lavoro interni al paese”. Queste preoccupazioni sono esagerate, in particolare rispetto a nazioni come gli Stati Uniti. 

È probabile che gli investitori continuino a sceglire gli Stati Uniti anche con tasse relativamente elevate per una serie di motivi: accesso ai mercati finanziari e dei consumatori, un sistema legale prevedibile e trasparente e una forza lavoro, infrastrutture e ambienti tecnologici ben sviluppati.

Un sistema fiscale che abbracci la neutralità giuridica dell’AI non solo migliorerebbe il commercio eliminando i sussidi inefficienti per l’automazione, ma contribuirebbe anche a garantire che i benefici dell’AI non vadano a scapito dei più vulnerabili, livellando le condizioni di gioco per i lavoratori umani e garantendo un gettito fiscale adeguato. 

È probabile che l’intelligenza artificiale si traduca in profitti finanziari considerevoli ma mal distribuiti, e ciò richiederà e consentirà ai responsabili politici di ripensare al modo in cui allocare le risorse e distribuire la ricchezza. 

Ryan Abbott, è  professore di Diritto e Scienze della salute presso la University of Surrey School of Law e professore associato aggiunto di Medicina alla David Geffen School of Medicine della UCLA

Immagine: Jialun Deng

(rp)