Skip to main content

Le nuove tecniche di AI per decidere chi assumere comportano dei seri rischi per l’uguaglianza dei lavoratori.

di Jennifer Strong

Sempre più spesso, chi cerca lavoro deve superare una serie di test sotto forma di giochi di intelligenza artificiale prima di avere un colloquio con un responsabile delle assunzioni. In questo podcast abbiamo incontrato alcuni esperti e abbiamo parlato con i creatori di questi test, per sapere  chi viene favorito o meno da questi nuovi strumenti. 

David Futrell, direttore organizzativo di Walmart

Matthew Neale, Vicepresidente dei prodotti di valutazione, Criteria Corp. 

Frida Polli, CEO, pymetrics 

– Henry Claypool, Consulente ed ex membro della Commission on Long-Term dell’amministrazione Obama

Safe Hammad, CTO, Arctic Shores  

Alexandra Reeve Givens, Presidente e CEO, Center for Democracy and Technology

Nathaniel Glasser, avvocato del lavoro, Epstein Becker Green

Keith Sonderling, Commissario, Equal Employment Opportunity Commission (EEOC)


Hilke Schellmann, professoressa di giornalismo alla New York University

 

Jennifer Strong: Lei che ha contribuito a crearli, cosa pensa dei test Cognify?

Matthew Neale: Penso che l’intenzione alla base di Cognify sia analizzare la capacità delle persone di apprendere, elaborare informazioni, risolvere problemi. A mio parere, questo tipo di abilità è rilevante nella progettazione del software, in particolare se si è alle prese con problemi complessi o insoliti. E questa è la connessione che vorrei tracciare tra il sistema di valutazione e il ruolo lavorativo.

Jennifer: Abbiamo testato alcuni di questi strumenti noi stessi e ci siamo chiesti chi potrebbe essere sfavorito da questo modo di procedere, considerando che non esistono forme di regolamentazione. 

Keith Sonderling: In effetti, non ci sono linee guida. Non c’è stato nulla di specifico sull’uso dell’intelligenza artificiale, che si tratti di screening del curriculum, che si tratti di annunci di lavoro mirati o riconoscimento facciale o riconoscimento vocale. L’EEOC, l’agenzia federale per le pari opportunità sul lavoro, non ha prodotto nulla da quando è stata creata la tecnologia.

Frida Polli:  sono l’attuale CEO diPymetrics, un’azienda di giochi di intelligenza artificiale che utilizza la scienza comportamentale e l’apprendimento automatico per decidere se le persone sono adatte a un determinato lavoro.  Ho lavorato in precedenza nel mondo accademico, ma ero delusa dal fatto che non c’erano molte applicazioni per il mondo reale. Quindi sono andato alla scuola di economia alla ricerca di un problema, essenzialmente, che la nostra scienza potesse aiutare a risolvere. 

Mi sono avvicinata all’azienda. I responsabili stavano cercando di valutare dal curriculum di una persona la presenza delle soft skill, ovvero le attitudini cognitive, sociali ed emotive. L’idea era di utilizzare i nuovi strumenti della scienza comportamentale per avere una conoscenza olistica della persona. Alla fine, abbiamo abbandonato i curriculum vitae per misurare le competenze trasversali. 

Jennifer: Il motivo per cui le aziende valutano le persone in cerca di lavoro è perché ricevono troppe candidature per i ruoli aperti. 

Frida Polli: Sì. Tutto quello che possiamo fare è rendere questi sistemi i più equi e predittivi nei limiti del possibile. 

Jennifer: Pymetrics lo fa usando la ricerca cognitiva e non misurando le hard skills.

Frida Polli: La premessa fondamentale è che tutti noi abbiamo determinate predisposizioni e queste ci porteranno ad avere più o meno successo. Ci sono state molte ricerche che dimostrano come diversi attributi cognitivi, sociali ed emotivi o di personalità rendano le persone particolarmente adatte per il ruolo A e meno adatte per il ruolo B. Tutto ciò che abbiamo fatto è essenzialmente rendere la misurazione di questi aspetti meno dipendente dai questionari di autovalutazione e più dipendente dalla misurazione effettiva del comportamento personale. 

Jennifer: Come lei sostiene, questi giochi misurano nove competenze trasversali specifiche, tra cui l’attenzione e la propensione al rischio, che sono importanti in determinati lavori. 

Frida Polli: Non è completamente deterministico. Può cambiare nel tempo. Se una persona tende ad essere impulsiva, sarebbe adatta per certi ruoli, ma non per altri. Quindi direi che il giusto mix di hard e soft skills sono importanti per il successo in qualsiasi ruolo.

Jennifer: Vediamo se ho capito bene. I dipendenti che hanno avuto successo in un particolare lavoro per cui un’azienda sta assumendo sono invitati a giocare a questi game. Poi i dati vengono confrontati con quelli già presenti in un database Pymetrics. L’idea è di costruire un modello che identifichi e classifichi le competenze uniche per un gruppo di dipendenti e per evitare pregiudizi. 

Il sistema è utilizzato da grandi aziende globali tra cui KraftHeinz e AstraZeneca. Un altro grande attore in questo campo è un’azienda chiamata Arctic Shores. I loro giochi sono utilizzati dall’industria finanziaria e da grandi aziende, principalmente in Europa.  

Safe Hammad: Il modo in cui reclutiamo è in completa trasformazione. Come CTO di Arctic Shores ho avuto modo di vedere che le aziende sanno di dover fare meglio, soprattutto sul fronte dei pregiudizi. È una situazione vantaggiosa per tutti: rimuovendo il pregiudizio, si lavora con le persone giuste nell’azienda. Voglio dire, cosa non va?

Jennifer: Come Pymetrics, Arctic Shores mette in evidenza i tratti della personalità tramite “videogiochi” basati sull’intelligenza artificiale, che permettono di ricavare tratti della personalità dei candidati al lavoro che altrimenti sarebbero difficili da capire. Per esempio, capire se il loro modo di pensare è innovativo, una domanda alla quale la maggior parte dei candidati probabilmente risponderebbe con un sì se gli venisse chiesto in un colloquio di lavoro. 

Safe Hammad: Quando si fanno delle domande, le risposte possono essere non vere. Se chiedo come reagiresti  in una determinata posizione, la persona si chiede quale potrebbe essere la risposta che gli offre le migliori possibilità di ottenere il lavoro. Quindi senza domande è molto più difficile fingere ed è un sistema molto meno soggettivo.

Jennifer: E, di conseguenza, decisioni di assunzione più obiettive. 

Safe Hammad: Si tratta di vedere di non affidarsi solo alle informazioni che possono portare a pregiudizi, vale a dire la scuola che hanno frequentato, i voti, e guardare gli aspetti psicometrici,  La domanda più importante è: qual è il loro potenziale per il ruolo? Noi utilizziamo l’intelligenza artificiale per ottenere questi dati  e costruire un modello simile a quello che proporrebbe la psicometria  tradizionale. Siamo in grado di dire a che punto di una scala si trova il candidato per creatività, resilienza e agilità di apprendimento.

Jennifer: Ma non tutti condividono questo ottimismo. Hilke Schellmann è una professoressa di giornalismo alla New York University che si occupa dell’uso dell’intelligenza artificiale nel sistema di assunzioni e ha approfondito l’argomento.

Hilke Schellmann: In effetti, i videogiochi basati sull’intelligenza artificiale sono un fenomeno recente dell’ultimo decennio o giù di lì. È un modo per i candidati di essere testati per un lavoro in un modo più “divertente” (almeno secondo i datori di lavoro che lo promuovono), dal momento che stanno giocando ai “videogame”, per esempio, invece di rispondere alle molte domande in un test di personalità. 

Jennifer: Che tipo di giochi ha provato? 

Hilke Schellmann: Ne ho fatti molti. Un’azienda, per esempio, mi ha chiesto di giocare  a tetris e mettere diversi blocchi nell’ordine giusto. Ho anche dovuto risolvere problemi matematici di base e testare le mie abilità linguistiche trovando errori di grammatica e ortografia in un’e-mail.

Jennifer: Ma questi giochi non sono simili a quelli che si giocano a casa. Non c’è la parte sonora e ricordano quelli degli anni 1980 o dei primi anni 1990. Una cosa che mi ha colpito è che  tutte le più grandi aziende si affidano al gioco dei palloncini. Come funziona?

Hilke Schellmann: Questo gioco,  a quanto pare, misura la propensione al rischio. Quando l’ho fatto, ho capito abbastanza presto che i palloncini gialli e rossi scoppiano prima rispetto ai palloncini blu, quindi mi sono affidata a questi ultimi per incassare più soldi. Ma mentre giocavo mi chiedevo anche se questo gioco misura davvero le mie capacità di assunzione di rischio nella vita reale o se misura solo la mia propensione al rischio in un videogioco. 

Jennifer: E’ così Potr.ei essere un vero temerario quando gioco, ma totalmente avverso al rischio nella vita reale. 

Hilke Schellmann: Esattamente. Si tratta di una preoccupazione reale nel caso dei giochi di intelligenza artificiale. 

Jennifer: Allora perché le aziende sono interessate a usare questi giochi?

Hilke Schellmann: Da quello che ho visto, questi giochi di intelligenza artificiale sono usati più spesso per le posizioni di livello base e di conseguenza sono molto popolari tra le aziende che assumono neolaureati. La maggior parte dei candidati non ha grandi esperienze lavorative alle spalle e i tratti della personalità iniziano a svolgere un ruolo più importante nel trovare le persone giuste per il lavoro. 

Jennifer: Vero. Le aziende hanno maggiori probabilità di dover cambiare il modo in cui fanno affari ora, quindi significa che alcune competenze sono necessarie per periodi minori. 

Hilke Schellmann: Sì. In passato, per esempio, era sufficiente assumere uno sviluppatore di software con competenze sul linguaggio di programmazione Python, perché è ciò di cui un’azienda aveva bisogno per gli anni a venire. Ma oggi, chissà per quanto tempo un linguaggio di programmazione specifico è rilevante sul posto di lavoro. Le aziende vogliono assumere persone in grado di riqualificarsi e che non si lascino scoraggiare dal cambiamento. Questi giochi di intelligenza artificiale dovrebbero aiutarli a trovare le persone giuste. 

David Futrell: Noi di Walmart gestiamo la più grande macchina di selezione e valutazione che sia mai esistita sul pianeta. Parlo di qualcosa tra dieci e quindicimila assunzioni di lavoro base per i negozi. Abbiamo aderito con entusiasmo all’idea di utilizzare l’apprendimento automatico perché ci sembrava che avrebbe risolto tutti i problemi che avevamo con i sistemi di previsione. Abbiamo lavorato molto cercando di costruire predittori con questi algoritmi basati su macchine. E funzionano, ma a conti fatti non più della vecchia maniera. 

Jennifer: Un’altra preoccupazione con questi e altri strumenti di assunzione di intelligenza artificiale, che va oltre il fatto che funzionino meglio di quello che stanno sostituendo, è se funzionano allo stesso modo su diversi gruppi di persone, comprese le persone con disabilità. Lo chiedo a Henry Claypool, un esperto di politiche sulla disabilità, a cui abbiamo chiesto di provare alcuni di questi giochi. In particolare, sta esaminando un gioco di Pymetrics, in cui si chiede ai giocatori di selezionare se vogliono una versione modificata per daltonismo, ADHD o dislessia o se preferiscono giocare a una versione non modificata. 

Henry Claypool: Già ci sono i termini di violazione dell’Americans with Disabilities Act o ADA. Si tratta di una dichiarazione di disabilità pre-assunzione, che potrebbe essere utilizzata per discriminare. Si sta mettendo il richiedente di fronte a un bivio: dichiararsi o tacere? Il fatto è che non è permesso chiedere a un candidato della sua disabilità prima di fare un’offerta di lavoro.

Jennifer: Claypool stesso ha una lesione al midollo spinale a causa di un incidente sugli sci durante gli anni del college che lo ha lasciato senza l’uso degli arti, ma questo incidente non ha frenato la sua carriera. Ha lavorato nell’amministrazione Obama e collabora con le aziende per quanto riguarda le politiche sulla disabilità. 

Henry Claypool: Il timore è che se clicco su una delle versioni modificate, rivelerò qualcosa che mi danneggia per il lavoro, e se non clicco su, per esempio, la versione per dislessici, sarò in svantaggio rispetto ad altre persone che leggono ed elaborano le informazioni più rapidamente. Quindi fallirò in un modo o nell’altro.

Jennifer: In altre parole, il candidato ha paura che se rivela subito la sua disabilità non riuscirà a ottenere un colloquio.

Henry Claypool: Ooops… il mous. Sto gonfiando i palloncini con il mouse.

Jennifer: La suite di giochi di Pymetrics inizia col gioco dei palloncini in cui le persone devono guadagnare dei crediti.  

Henry Claypool:  Odio davvero questo gioco. Non ci vedo alcuna logica. Sapere di essere messo alla prova da qualcosa che non riesco a capire cosa sta misurando, mi induce continuamente a cercare di indovinare cosa vuole. Mi sento quasi spaventato e un po’ violato.

Alexandra Givens: Quando si pensa al lavoro, si parla di opportunità per così tante persone. È una componente importante, non solo della stabilità economica, ma anche dell’identità personale delle persone. Il rischio che vengano implementati nuovi strumenti che sollevino barriere artificiali in uno spazio in cui esistono già problemi di accesso è davvero preoccupante.

Jennifer: Come CEO del Center for Democracy and Technology si è occupata dei potenziali impatti dell’assunzione di algoritmi sulle persone con disabilità. 

Alexandra Givens: Quando si esegue l’analisi algoritmica, si cercano tendenze e si cerca una specie di prevalenza statistica. Per definizione, le persone con disabilità sono valori anomali. Quindi un intero sistema è impostato per non tenere conto dei valori anomali statistici e non solo per non tenerne conto, ma per finire effettivamente per escluderli intenzionalmente perché non assomigliano alla mediana statistica che si sta raccogliendo in giro. 

Jennifer: Ricordo che circa 1 persona su 5 negli Stati Uniti sperimenterà la disabilità ad un certo punto della propria vita.

Alexandra Givens: Si sente dire che questo è in realtà un passo verso l’uguaglianza futura. Le risorse umane gestite da esseri umani sono intrinsecamente imperfette. Le persone ti giudicheranno in base alla pettinatura o al colore della pelle, o se hai un aspetto amichevole. I test gamificati  in realtà non danno peso al curriculum di qualcuno che debba fare un colloquio lavorativo. Vogliamo dare questa interpretazione ottimistica sull’uso dell’intelligenza artificiale e sfugge come questi strumenti possono davvero radicare la discriminazione, in un modo persino peggiore del processo decisionale umano perché lo stanno facendo su larga scala e lo stanno facendo in forme più difficile da rilevare rispetto al pregiudizio umano.

Jennifer: Questo gioco, in cui è necessario premere la barra spaziatrice il più rapidamente possibile, potrebbe escludere le persone con disabilità motorie, forse anche le persone più anziane.

Alexandra Givens: Stanno cercando di usarlo come proxy, ma questo indicatore è in realtà un buon predittore delle competenze richieste per il lavoro? Direi di no per una certa percentuale della popolazione. Ed effettivamente il modo in cui si sta scegliendo di farlo sta per escludere un gruppo di persone in tutta la popolazione in un modo profondamente ingiusto.

Non si tratta solo di discriminazione nei confronti dei disabili come classe protetta. E’ in realtà una domanda sul funzionamento della nostra società.  Con l’automatizzazione di questi sistemi, i datori di lavoro spingono verso ciò che è più veloce ed efficiente, perdendo la possibilità che le persone mostrino effettivamente le loro qualifiche e la loro capacità di svolgere il lavoro. In questo modo si verifica una perdita enorme. È un fallimento morale che porta con sé anche conseguenze di tipo legale e aumenta la disuguaglianza nella forza lavoro.

Jennnifer: Vorrei chiedere a Schellmann se si aspettava di trovare una situazione simile quando ha deciso di fare la sua ricerca.

Hilke Schellmann: In realtà, sono rimasta sorpresa. Mi aspettavo in parte di vedere dei pregiudizi contro le donne e le persone di colore perché l’abbiamo visto più e più volte, ma non mi aspettavo che le persone con disabilità sarebbero state altrettanto a rischio. Mi è venuta in mente subito un’altra domanda: gli algoritmi di questi giochi stanno davvero prendendo decisioni eque e imparziali per tutti i candidati? Ho parlato con avvocati del lavoro che si occupano di molte aziende che stanno pianificando di fare affari con fornitori di assunzione di intelligenza artificiale. Mi hanno detto che non sono estranei ai problemi con questi algoritmi e hanno condiviso con me qualcosa che non hanno condiviso pubblicamente prima.

Nathaniel Glasser: Penso che la domanda di fondo sia: funzionano questi strumenti? Come avvocato del lavoro penso che la risposta sia che in alcune circostanze lo fanno e in altre no. Nella misura in cui vediamo problemi e più specificamente un impatto negativo su un particolare gruppo, mi sono chiesto anche io quali siano le soluzioni per affrontare tali problemi. Una potrebbe essere cambiare l’algoritmo se non funziona, semplicemente dire che in realtà questo strumento non è giusto per noi.

Jennifer: Si ricorda qualche episodio specifico che ha coinvolto un venditore di startup di giochi di intelligenza artificiale?

Nathaniel Glasser: Sì. Dopo più round in beta prima di essere pubblicato, uno strumento ha dimostrato un impatto negativo nei confronti delle candidate. La startup che l’aveva adottato cinque anni fa, ha imparato da questo  errore e ha continuato a crescere.

Hilke Schellmann: Sfortunatamente gli avvocati hanno firmato un accordo di non divulgazione e non sappiamo di quali azienda si stia parlando. 

Jennifer: Sappiamo solo che l’azienda è diventata un player affermato. 

Hilke Schellmann: E questo potrebbe indicare che hanno corretto il loro algoritmo o potrebbe significare che nessuno sta controllando.

Jennifer: In effetti è una situazione che si ripete. Non esiste un processo che decida quali strumenti di assunzione di intelligenza artificiale sono affidabili e chiunque può portare qualsiasi strumento sul mercato. 

Hilke Schellmann: E’così. La Equal Employment Opportunity Commission è il regolatore delle assunzioni e dell’occupazione negli Stati Uniti. Ma sono rimasti sempre in silenzio. Questo è probabilmente il motivo per cui ora vediamo singoli stati e città che iniziano a provare a regolamentare il settore, ma tutti stanno ancora aspettando che intervenga la commissione. 

Jennifer: Per capire meglio abbiamo contattato l’EEOC e ci siamo messi in contatto con Keith Sonderling. È uno dei commissari che guida l’agenzia. 

Keith Sonderling: In realtà, dagli anni 1960, quando sono state emanate le leggi sui diritti civili, la nostra missione è stata sempre la stessa: assicurarci che tutti abbiano pari opportunità per entrare e avere successo sul posto di lavoro. 

Jennifer: Donne, immigrati, persone di colore e altri hanno spesso avuto meno opportunità di lavoro a causa dei pregiudizi umani. Lei crede che l’AI abbia il potenziale per rendere alcune decisioni più giuste? 

Keith Sonderling: Personalmente credo nei vantaggi dell’intelligenza artificiale nelle assunzioni. A mio parere, la tecnologia può cambiare radicalmente il rapporto di lavoro e permetterà ai datori di lavoro di trovare i candidati giusti e a chi lavora di scoprire l’attività più adatto alle sue capacità. Inoltre, può aiutare a diversificare la forza lavoro. Sono anche dell’idea che sia un modo eccellente per eliminare i pregiudizi nel reclutamento e nella promozione. Quindi essenzialmente è un meraviglioso servizio di matchmaking.

Jennifer: Ma cosa ne pensa dei rischi? Non crede che possano essere escluse persone come i lavoratori più anziani, per esempio programmando un parser per rifiutare i curriculum di persone con una certa esperienza? E non potrebbero questi strumenti discriminare involontariamente?

Keith Sonderling: Supponiamo che un’azienda di trasporti che ha la necessità di far partire gli autobus in orario voglia utilizzare l’intelligenza artificiale per esaminare 500.000 curricula dei lavoratori per trovare persone che vivono nelle vicinanze. Il sistema sceglierà solo le persone che hanno il codice postale delle sede aziendale. Questo modo di procedere potrebbe escludere un’intera classe protetta di persone in base ai dati demografici quindi la legge dirà che, malgrado le buone intenzioni,  il datore finisce per violare la legge. L’utilizzo dell’AI mette di fronte a potenziali gravi responsabilità.

Jennifer: La discriminazione involontaria si chiama impatto differenziato ed è una componente fondamentale da tenere d’occhio in questa nuova era di processi decisionali algoritmici. Ma con questi sistemi come si fa a sapere con certezza il modo in cui si è valutati? 

Keith Sonderling: Uno dei problema principali dell’utilizzo dell’intelligenza artificiale nel processo di assunzione è che il dipendente potrebbe non sapere nemmeno di essere sottoposto a test. Potrebbe anche non sapere che un programma sta monitorando le sue espressioni facciali come parte dell’intervista. Quindi è molto difficile rendersi conto del tipo di discriminazione e quasi impossibile presentare un reclamo.

Jennifer: I datori di lavoro si devono affidare all’utilizzo di strumenti di intelligenza artificiale basati sui dati della loro attuale forza lavoro?

Keith Sonderling: I datori di lavoro si dovrebbero chiedere: qual è il dipendente ideale che sto cercando? Mi devo basare sulle caratteristiche della mia forza lavoro esistente? Se si ottengono 50 curriculum e sono tutti identici, ci saranno alcuni problemi significativi perché il tipo di richieste  fornite all’algoritmo facevano riferimento solo alla forza lavoro esistente. In questo modo non si creerà una forza lavoro diversificata con potenziali lavoratori di tutte le diverse categorie che ne entrano a far parte.

Jennifer: Molti interventi hanno sostenuto che alcuni di questi strumenti non funzionano come pubblicizzato e potenzialmente danneggiano le donne, le persone di colore, le persone con disabilità e altri gruppi protetti, e hanno criticato la mancanza di azione e di orientamento dell’agenzia. 

Keith Sonderling: Non c’è stato nulla di specifico sull’uso dell’intelligenza artificiale, che si tratti di screening del curriculum, di annunci di lavoro mirati o riconoscimento facciale o riconoscimento vocale. Non ci sono state nuove linee guida dall’EEOC da quando è stata creata la tecnologia.

Jennifer: E questo è coerente con la missione dell’agenzia?

Keith Sonderling: La mia convinzione personale è che l’EEOC più che esercitare un controllo sia un’agenzia di applicazione della legge civile. Ma parte della nostra missione è sensibilizzare dipendenti e datori di lavoro. E questa è un’area in cui penso che l’EEOC dovrebbe assumere un ruolo guida all’interno del governo federale.

Jennifer: Quindi se questi strumenti funzionano come pubblicizzato e scelgono effettivamente le persone migliori non è un problema dell’agenzia?

Keith Sonderling: Le aziende utilizzano test di valutazione simili da molto tempo e se tali test sono realmente accurati o meno e prevedono il successo di un dipendente, questo va oltre lo scopo del nostro lavoro qui all’EEOC. L’unica cosa di cui l’EEOC si preoccupa quando vengono istituiti questi test, è se discriminano una classe protetta. Questa è la nostra missione. 

Jennifer: Ma se uno strumento di intelligenza artificiale favorisce un numero sproporzionato di uomini rispetto alle donne, l’agenzia può iniziare a indagare. Di conseguenza, la domanda se lo strumento funzioni o meno, potrebbe diventare una parte importante dell’indagine. 

Keith Sonderling: La questione diventa rilevante quando i risultati del test hanno un impatto su una determinata caratteristica protetta. Diciamo che se un test cognitivo, per qualche ragione, discrimina le donne, per esempio, allora il datore di lavoro per convalidare i risultati di  quel test dovrà mostrare che c’è un’esigenza aziendale legata a un tipo di lavoro che esclude le donne. Non è assolutamente facile da dimostrare una condizione del genere per i datori di lavoro e può essere anche molto costoso.  

Jennifer: E’ previsto un commissario ad hoc che può obbligare l’agenzia ad avviare un’indagine, anche avvalendosi dell’aiuto dei cittadini? 

Keith Sonderling: Sì. Se un singolo commissario ritiene che si stia verificando una discriminazione in qualsiasi area delle leggi di nostra competenza, che si tratti di disabilità, discriminazione sessuale o dell’intelligenza artificiale, può sporgere denuncia contro l’azienda e avviare un’indagine. Per farlo, abbiamo comunque bisogno di prove molto credibili e di persone che ci facciano sapere che sta succedendo e permettano al commissario di verificare di persona. In ogni caso ci sono molti modi in cui l’EEOC può essere coinvolta. 

Jennifer: Nel frattempo, i singoli stati e le città stanno iniziando a provare a regolamentare l’uso dell’AI nelle assunzioni da soli. Di certo, avere un mosaico di leggi che differiscono stato per stato rende molto più difficile per tutti avere dei punti di riferimento sicuri in un campo emergente.  

Immagine di: Ms Tech / Getty


(rp)