
Il lavoro nascosto dell’IA ci ha portato ripetutamente a sopravvalutare la tecnologia. I robot umanoidi stanno entrando in una fase simile.
A gennaio, Jensen Huang di Nvidia, il capo dell’azienda più preziosa al mondo, ha proclamato che stiamo entrando nell’era dell’intelligenza artificiale fisica, in cui l’intelligenza artificiale andrà oltre il linguaggio e i chatbot per diventare macchine fisicamente capaci. (A proposito, ha detto la stessa cosa anche l’anno prima).
L’implicazione, alimentata dalle nuove dimostrazioni di robot umanoidi che mettono a posto i piatti o assemblano automobili, è che imitare gli arti umani con bracci robotici monouso è il vecchio modo di automatizzare. Il nuovo modo è replicare il modo in cui gli esseri umani pensano, imparano e si adattano mentre lavorano. Il problema è che la mancanza di trasparenza sul lavoro umano necessario per addestrare e far funzionare tali robot porta il pubblico a fraintendere ciò che i robot possono effettivamente fare e a non vedere le strane nuove forme di lavoro che si stanno formando intorno a loro.
Si consideri come, nell’era dell’intelligenza artificiale, i robot spesso imparino dagli esseri umani che dimostrano loro come svolgere un compito. La creazione di questi dati su larga scala sta ora portando a scenari simili a quelli descritti nella serie Black Mirror. Ad esempio, secondo quanto riportato da Rest of World, un lavoratore di Shanghai ha recentemente trascorso una settimana indossando un visore per la realtà virtuale e un esoscheletro mentre apriva e chiudeva la porta di un forno a microonde centinaia di volte al giorno per addestrare il robot accanto a lui. In Nord America, la società di robotica Figure sembra avere in programma qualcosa di simile: a settembre ha annunciato che avrebbe collaborato con la società di investimento Brookfield, che gestisce 100.000 unità residenziali, per acquisire “enormi quantità” di dati reali “in una varietà di ambienti domestici”. (Figure non ha risposto alle domande su questa iniziativa).
Proprio come le nostre parole sono diventate dati di addestramento per grandi modelli linguistici, ora anche i nostri movimenti sono destinati a seguire lo stesso percorso. Solo che questo futuro potrebbe riservare agli esseri umani un destino ancora peggiore, e sta già iniziando. Il robotico Aaron Prather mi ha parlato di un recente lavoro con un’azienda di consegne che ha fatto indossare ai propri dipendenti sensori di tracciamento del movimento mentre spostavano scatole; i dati raccolti saranno utilizzati per addestrare i robot. Lo sforzo di costruire umanoidi richiederà probabilmente che i lavoratori manuali agiscano come raccoglitori di dati su larga scala. “Sarà strano”, dice Prather. “Non c’è dubbio”.
Oppure pensiamo al tele-operatore. Sebbene l’obiettivo finale della robotica sia una macchina in grado di completare un compito da sola, le aziende di robotica assumono persone per azionare i loro robot a distanza. Neo, un robot umanoide da 20.000 dollari della startup 1X, dovrebbe essere consegnato nelle case quest’anno, ma il fondatore dell’azienda, Bernt Øivind Børnich, mi ha detto recentemente che non è impegnato a garantire alcun livello prestabilito di autonomia. Se un robot si blocca o se il cliente vuole che svolga un compito difficile, un teleoperatore dalla sede centrale dell’azienda a Palo Alto, in California, lo piloterà, guardando attraverso le sue telecamere per stirare i vestiti o svuotare la lavastoviglie.
Questo non è intrinsecamente dannoso – 1X ottiene il consenso del cliente prima di passare alla modalità di tele-operazione – ma la privacy come la conosciamo non esisterà in un mondo in cui i tele-operatori svolgono le faccende domestiche attraverso un robot. E se gli umanoidi domestici non sono veramente autonomi, questo accordo è meglio inteso come una forma di arbitraggio salariale che ricrea le dinamiche del lavoro occasionale, consentendo per la prima volta di svolgere compiti fisici ovunque la manodopera sia più economica.
Abbiamo già percorso strade simili in passato. Effettuare la moderazione dei contenuti “guidata dall’IA” sulle piattaforme dei social media o assemblare dati di addestramento per le aziende di IA spesso richiede che i lavoratori dei paesi a basso salario visualizzino contenuti disturbanti. E nonostante si affermi che l’IA sarà presto in grado di addestrarsi sui propri risultati e imparare da sola, anche i modelli migliori richiedono un’enorme quantità di feedback umano per funzionare come desiderato.
Queste forze lavoro umane non significano che l’IA sia solo vaporware. Ma quando rimangono invisibili, il pubblico sopravvaluta costantemente le capacità effettive delle macchine.
Questo è ottimo per gli investitori e per l’hype, ma ha conseguenze per tutti. Quando Tesla ha commercializzato il suo software di assistenza alla guida come “Autopilot”, ad esempio, ha gonfiato le aspettative del pubblico su ciò che il sistema poteva fare in sicurezza: una distorsione che una giuria di Miami ha recentemente ritenuto abbia contribuito a un incidente che ha causato la morte di una donna di 22 anni (Tesla è stata condannata a pagare 240 milioni di dollari di risarcimento).
Lo stesso vale per i robot umanoidi. Se Huang ha ragione e l’intelligenza artificiale fisica sta arrivando nei nostri luoghi di lavoro, nelle nostre case e negli spazi pubblici, allora il modo in cui descriviamo e analizziamo tale tecnologia è importante. Tuttavia, le aziende di robotica rimangono opache riguardo alla formazione e al telecontrollo, così come le aziende di intelligenza artificiale lo sono riguardo ai loro dati di formazione. Se questo non cambia, rischiamo di scambiare il lavoro umano nascosto per intelligenza artificiale e di vedere molta più autonomia di quanta ne esista realmente.







