«Il modo in cui lavoriamo sta cambiando», comincia così, con una frase di improvvida e banale leggerezza, un post nel blog aziendale che forse ricorderemo come il primo vero passo nel metaverso, compiuto da Facebook. Un piccolo passo ambizioso per la società di Mark Zuckerberg, e forse uno piuttosto impegnativo e inedito per l’umanità. «Senza i giusti strumenti di connessione, il lavoro a distanza presenta ancora molte sfide. Lavorare senza colleghi intorno a te può farti sentire isolato a volte, e il brainstorming con altre persone non è lo stesso se non sei nella stessa stanza», ancora dal blog di Facebook.
Workrooms
Tutta l’analisi compiuta in questi mesi, dai primi lockdown a oggi, sul lavoro da remoto è messa in discussione da un nuovo prodotto di realtà virtuale sociale (cd. social VR product), sviluppato da Facebook, che si chiama Horizon Workrooms. Si tratta di un sistema, una sintesi di software e hardware, che mira appunto a trasformare un ossimoro che Mark Zuckerberg ha utilizzato fin dai primi giorni della pandemia, e cioè la parola videopresenza.
Horizon Workrooms consente a due o più persone, distanti chilometri, di immergersi in un ambiente virtuale: queste persone, rappresentate dai rispettivi avatar, conversano come se fossero l’una accanto all’altra, nello stesso luogo, nella stessa stanza di un ufficio. Un video mostra in anteprima il tipo di ambiente nel quale le persone si troveranno a lavorare, una cosa a metà tra Second Life e un qualsiasi gioco evoluto della Playstation: si vedono avatar seduti a un tavolo che discutono di lavoro.
Workrooms si inserisce all’interno di un progetto più ampio, Horizon, che rappresenta una specie di sintesi in realtà virtuale di Instagram e Facebook, mentre il nuovo prodotto, ha detto Mark Zuckerberg alla CBS, è «solo una parte di questa corsa per dare alle persone più libertà di vivere dove vogliono». Il dove è un dove digitale e fisico allo stesso tempo, non dimentichiamolo, ed è l’essenza del metaverso.
Per accedere a Workrooms servono gli Oculus Quest2, visori per la realtà virtuale e un paio di joystick, che consentono ai partecipanti di ricreare attività che farebbero in presenza, come, ad esempio, illustrare una presentazione, prendere appunti sul proprio computer. Nel blog di Oculus scrivono che questa tecnologia è progettata per migliorare la capacità «di collaborare, comunicare e connettersi in remoto, attraverso la potenza della realtà virtuale, che si tratti di riunirsi per scambiare idee o scrivere, lavorare su un documento, ascoltare gli aggiornamenti di un gruppo di lavoro», o più semplicemente per «avere conversazioni migliori che fluiscano in modo più naturale» nell’ecosistema digitale. Di nuovo il metaverso.
Una delle applicazioni chiave di Workrooms è il cosiddetto audio space, che permette di ascoltare le persone «in base a dove sono sedute, proprio come in una stanza reale, rendendo le conversazioni fluide».
L’obiettivo, dicono da Facebook, è quello di ottenere una «presenza sociale convincente», qualunque cosa voglia significare questa affermazione, direi che l’azienda intende avvicinarsi al senso più profondo di “realtà virtuale” come componente del metaverso. Altra importante novità sta nel fatto che si possono utilizzare non solo i joystick (i cd. controller), ma anche le mani per muovere oggetti nello spazio virtuale, insomma qualcosa che ricorda il Tom Cruise di Minority Report di qualche anno fa, per chi se lo ricorda.
La tecnologia è già funzionante, ovviamente in versione Beta, di prova, ma ci si può registrare e provarla.
Il Tesla Bot
Nelle stesse ore in cui Facebook lanciava Horizon Workrooms, Elon Musk ha presentato il progetto di un robot umanoide facendo danzare accanto a sé un ballerino vestito da robot, su un palco allestito all’occorrenza. L’umano mascherato da umanoide, che evoca il prossimo Tesla Bot, è stato annunciato durante un evento chiamato AI Day, la giornata dell’intelligenza artificiale.
L’obiettivo è candidare Tesla come sede di lavoro ambita per i tecnici che lavorano sull’intelligenza artificiale. Nel blog aziendale, la società ha scritto che cerca «ingegneri meccanici, elettrici, dei controlli e del software che ci aiutino a sfruttare la nostra esperienza sull’intelligenza artificiale, oltre la nostra flotta di veicoli». Tesla è già una società AI driven, come amano dire nella Silicon Valley, e cioè un’azienda in cui l’intelligenza artificiale rappresenta il cardine attorno al quale ruotano diversi prodotti e servizi.
Abbiamo detto spesso, su Disobbedienze, che le automobili del futuro-presente vanno considerate come piattaforme di raccolta dati su 4 ruote. In questo senso Tesla rappresenta una delle società più avanti del settore, è prima di tutto un’azienda digitale in grado di produrre software estremamente evoluti.
Nel corso della presentazione Musk ha spiegato che il robot umanoide «sarà buono ovviamente, e vivrà in un mondo fatto per gli umani, eliminando compiti pericolosi, ripetitivi e noiosi».
Alcuni interrogativi
Una domanda: perché Elon Musk ha sentito il bisogno di precisare che il robot «sarà buono»?
Esiste forse un’alternativa alla prima legge della robotica di Asimov?
Al netto delle intenzioni, va ricordato quanto Elon Musk talvolta si lanci in previsioni che poi vengono smentite: aveva preventivato, per la fine del 2020, 1 milione di robotaxi di cui non v’è traccia. Anche questa dimostrazione sembra più una roba da festival di cosplay, che non un’anticipazione rispetto all’aspetto dei robot con i quali avremo a che fare, e con i quali abbiamo già a che fare. Però non va sottovalutata la portata simbolica del lavoro di Musk, ed è la ragione per cui ne parliamo qui.
Nel caso di Facebook molte critiche si sono appuntate sull’aspetto di Workrooms: sembra Second Life o la versione impiegatizia di Fortnite, hanno detto in molti, dileggiando la presentazione di Zuckerberg. Ritengo che non sia mai opportuno prendere poco sul serio quanto fa il fondatore di Facebook. Al contrario penso che l’unico vero ostacolo allo spostamento dei nostri uffici nel suo modello realtà virtuale non sia l’aspetto da videogame, che nel giro di pochi mesi o pochi anni cambierà, e sarà ridisegnato sui nostri uffici, così come i nostri avatar sembreranno nostri ologrammi; penso che l’unico attrito derivi dal fatto che gli Oculus Quest2, e i rispettivi controller, siano ancora troppo ingombranti. Generano molto attrito, per utilizzare una parola cara alle techno-corporation della California. Non appena gli occhiali saranno più leggeri e le cuffie si trasformeranno in auricolari pressoché invisibili, e non appena basterà muovere le mani invece di joystick, Workrooms (o qualcosa di simile) diventerà uno dei luoghi di lavoro più popolati al mondo.
Non va dimenticato che anche Google si è lanciato in progetti di videopresenza, come Starline, e tenta da anni di lanciare i Google glass senza particolare successo (per adesso).
Il lavoro perturbante
Le due presentazioni hanno un tratto in comune, espresso con improvvida e banale leggerezza, che non significa assenza di consapevolezza, dalle parole di Facebook: «il modo in cui lavoriamo sta cambiando».
Abbiamo visto un’anticipazione dei connotati radicalmente differenti del lavoro di domani, non solo rispetto ai luoghi in cui lo portiamo a termine (Horizon Workrooms), ma anche rispetto alle categorie di persone e di non-persone che lo svolgeranno. Ci ricordano che abbiamo il dovere di cominciare a riflettere sulle mutazioni del lavoro, che tra pochi anni non somiglierà più, per milioni di persone, alle mansioni e al modo in cui le svolgevano prima.
I robot già oggi sono largamente impiegati in molti ambiti industriali, ma la familiarità che Musk ha trasmesso con il balletto di un uomo vestito da umanoide, indica l’elemento perturbante, per dirla con Freud, di tutta questa vicenda. Una familiarità che inquieta, non tanto perché i robot con cui abbiamo a che fare non somiglieranno per anni ad alcun essere umano, ma perché i robot sembrano terribilmente inevitabili, vicini e lontanissimi, uno spaventoso che in noi risuona prossimo. Sappiamo, dimenticandolo, che l’intelligenza artificiale (che utilizzo come sinonimo di robot) è già presente nelle nostre vite, in molti aspetti visibili e nascosti, e già abbiamo a che fare con essa in tanti ambiti del nostro lavoro e della nostra vita.
Nel saggio Freud fa riferimento a un racconto di E. T. A. Hoffman, Il mago della sabbia, in cui uno dei protagonisti si innamora e impazzisce per quello che oggi definiremmo un robot, un automa, la bambola Olimpia.
Indipendentemente dall’aspetto, i robot sono accanto a noi, lavorano e lavoreranno sempre di più.
Le presentazioni di Facebook e Tesla sono i primi tasselli della costruzione di un luogo lavoro in cui l’incorporeità è un dato di partenza, tanto per gli umani distanti nei corpi, quanto ovviamente per i robot, i quali possiedono un corpo meccanico e un’intelligenza artificiale; in cui la prossimità tra le persone è solo digitale, perché non si abita lo stesso ambiente, e l’automazione una premessa. Un’occupazione dai tratti immateriali, virtualizzata, a distanza, un’occupazione automatizzata in molti suoi aspetti.
Quando dico che le macchine sono già accanto a noi, e che possono avere caratteri altrettanto perturbanti, penso alle cosiddette “workforce analytics”: metriche di controllo della forza lavoro affidate ad algoritmi. La versione moderna, ad apprendimento automatico (machine learning), del vecchio Taylorismo, ma dimenticate “La classe operaia va in paradiso” e gli occhiuti ispettori dotati di cronometro e tabelle. La funzione di controllo la svolgono software che analizzano il nostro lavoro, tanto in fabbrica (Amazon), quanto a casa o nell’ambiente virtuale.
In piena pandemia, Adam Satariano, un reporter del NewYorkTimes, ha installato sul proprio computer e sullo smartphone un software che monitorava il suo lavoro da casa. Il programma svolge diverse funzioni: in primo luogo controlla tutto quello che accade sul pc di chi lo ha installato. Quindi verifica la cronologia dei siti visitati, le attività dei programmi di videoscrittura o dei fogli di calcolo. Inoltre monitora i «livelli di attività in base all’utilizzo della tastiera e del mouse»; calcola insomma il tempo impiegato dalle persone per fare le cose. Come molte tecnologie digitali, anche questo software dispone di un sistema di geolocalizzazione: traccia infatti la posizione delle persone, anche all’interno di spazi chiusi. Dopodiché invia istantanee dello schermo al datore di lavoro cosicché egli possa controllare in tempo reale l’attività dei suoi dipendenti. Una specie di Panopticon ubiquo e digitale.
A proposito di macchine che lavorano accanto a noi: nelle videocall alcune tecnologie esistono già, e altre, in corso di sviluppo, percorrono con maggior forza la strada del perturbante.
Google, ad esempio, sta sperimentando un sistema che consente all’intelligenza artificiale di “colmare” le lacune audio causate da cattive connessioni. Il sistema, addestrato ascoltando le voci di 100 individui in 48 lingue per apprendere le caratteristiche generali di una voce umana, utilizza questa libreria di dati vocali per ricostruire in maniera realistica brevi segmenti di conversazioni perdute. L’intelligenza artificiale produce suoni di sillabe e può riempire spazi vuoti fino a 120 millisecondi.
Ndivia, azienda leader nella produzione di schede video, ha sviluppato una tecnologia, si chiama Maxine, che riduce la quantità di dati che due computer si scambiano durante una videocall.
Il funzionamento è apparentemente semplice: l’intelligenza artificiale prende la prima immagine del viso di chi chiama, ne fa una sintesi ed elimina qualsiasi video successivo. Di questa immagine estrae dei punti di riferimento specifici intorno agli occhi, al naso e alla bocca del mittente. Poi una “rete avversa generativa“, una rete neurale, ricostruisce le immagini successive, e dunque consente la videochiamata vera e propria, a partire da questi punti di riferimento. Sviluppa insomma una versione simulata del chiamante e trasmette questa versione all’altra persona. Come scrive il sito Nerdist, «l’intelligenza artificiale crea letteralmente un doppelgänger completo e (per lo più) indistinguibile» di una persona. Il sosia è uno dei caratteri del perturbante: in questo caso osserviamo un nostro doppio, che dice ciò che noi stiamo dicendo, ma che il nostro interlocutore vede muoversi animato da un’altra intelligenza.
Lavoratori non umani
Oltre ai mutamenti nello spazio e nei modi di lavoro, all’emersione di antiche professioni presto svolte da lavoratori non umani, dovremo chiederci: cosa faranno gli umani sostituiti dalle macchine?
Quali compiti svolgeranno?
Di norma compare, a questo punto del discorso, l’accusa di luddismo nei confronti di chi indica una prospettiva del genere. Mi interessa poco l’accusa, che ritengo sciocca e figlia di un tempo binario non solo nel software ma anche nei giudizi: 1 o 0, acceso o spento, favorevole o contrario. Penso che la domanda rimanga e che le risposte siano molteplici; provo a suggerire qualche ipotesi.
Di fronte a questi scenari, che meriterebbero analisi e spazi ulteriori di approfondimento, il capitalismo digitale (e non solo) dovrà immaginare nuove forme di remunerazione per chi vedrà il proprio mestiere sostituito o radicalmente modificato dalle macchine. Un reddito universale per i milioni di esodati dall’AI.
Secondo un rapporto di McKinsey del 2017, solo il 5% delle occupazioni sarà completamente automatizzato. Per il 60% dei lavori una parte consistente dell’attività che li caratterizza potrebbe essere automatizzata, «il che implica sostanziali trasformazioni e cambiamenti del posto di lavoro per tutti i lavoratori».
Questi scenari suggeriscono che «entro il 2030, da 75 a 375 milioni di lavoratori (dal 3 al 14% della forza lavoro globale) dovrà cambiare categorie professionali». Per capirci, dovremo imparare a lavorare in Workrooms o in un ambiente virtuale, il che non è scontato, ed è parte di una trasformazione profonda che va compresa, affrontata, e per la quale è necessario prepararsi, non solo professionalmente.
Con l’aumento dei lavori automatizzati, e quindi svolti dalle macchine, sorgeranno ulteriori esigenze. Oltre a pagare milioni di inattivi, il capitalismo (perdonate la resa antropomorfa) dovrà anche immaginare, per le prossime generazioni, nuovi lavori, piuttosto tristi “noiosi e ripetitivi” – non pericolosi, caro Elon Musk – di sorveglianza pressoché inattiva, inutile spesso, dei robot.
Non so se avete presente il video di una macchina senza pilota di Uber che investe una homeless in Arizona (si chiamava Elaine Herzberg, aveva 50 anni, ed è la prima vittima di un incidente causato da un’automobile a guida autonoma). Si vede al posto di guida la donna che avrebbe dovuto controllare, che invece è disattenta, guarda una trasmissione sullo smartphone, e non può far altro che scuotersi un istante prima della collisione.
Penso che nel futuro prossimo, accanto alla categoria estremamente ricercata dei creatori di intelligenza artificiale per i quali Elon Musk allestisce gli AI Day, vedremo proliferare gli assistenti dell’intelligenza artificiale: persone che tenteranno di sorvegliare la macchina, per lo più arrestandone il funzionamento, laddove ci riescano, nel caso di un evento inatteso. Sorveglianti dei robot che potranno a loro volta essere sorvegliati da altri robot (le workforce analytics).
Magari la divisione non sarà così schematica, possiamo tuttavia immaginare una sorta di scala, al cui vertice ci stanno i creatori dell’intelligenza artificiale e tra i paria gli assistenti senza poteri, in mezzo, con diverse gradazioni di autonomia o dipendenza, e quindi tante diverse professioni che interagiscono o sono al servizio dell’intelligenza artificiale. Penso ai tanti che passano il loro tempo a insegnare ai robot, all’intelligenza artificiale, a imparare e che vengono reclutati a cottimo, e sono il lato oscuro della rivoluzione digitale. E penso anche all’asta che si svolse nel lontano dicembre del 2012, sulle rive del lago Tahoe, nella Sierra Nevada, per l’assunzione di Geoff Hinton docente di informatica, grande esperto di intelligenza artificiale, “deep learning” e “reti neurali“, e di suoi due studenti. L’asta ha coinvolto Microsoft, Deep Mind, Baidu e Google, ed è stata vinta da quest’ultima che ha pagato per 3 intelligenze umane, dopo rilanci da 5 milioni di dollari alla volta, una cifra da capogiro, da calcio mercato, e cioè 44 milioni di dollari.
Questa asta è stata la base di una sorta di corsa agli armamenti globale per la supremazia nell’intelligenza artificiale, sulle due sponde del Pacifico, tra Cina e Stati Uniti. Questa «competizione– ha scritto Cade Metz in “Genius Makers: The Mavericks Who Brought AI to Google, Facebook, and the World” – ha accelerato drasticamente il progresso dell’intelligenza artificiale, innescando enormi sviluppi negli assistenti digitali casalinghi, nelle auto senza conducente, nella robotica intelligente, nell’assistenza sanitaria automatizzata e, andando ben oltre le intenzioni di Hinton e dei suoi studenti, nella guerra e nella sorveglianza automatizzate».
Si dice sempre che l’automazione sia al servizio dell’uomo, e in molti ambiti è così, ma forse dovremmo ripensare la dialettica servo-padrone al tempo dell’intelligenza artificiale.
La legge di Moore per tutto
Che l’intelligenza artificiale muterà alla radice il mercato del lavoro e quindi il capitalismo, lo dice una persona poco nota ai più, ma estremamente influente in questo ambito: Sam Altman.
Sam è stato presidente di Y Combinator (un fondo di investimento che ha in portafoglio società tecnologiche per 300 miliardi di dollari), ed è il CEO di Open AI, laboratorio di ricerca sull’intelligenza artificiale tra i più importanti al mondo.
In un suo articolo di qualche tempo fa, Altman ha scritto che presto «il costo di molti tipi di lavoro (che determina i costi di beni e servizi) scenderà verso lo zero, una volta che un’intelligenza artificiale sufficientemente potente “diventerà parte della forza lavoro”». Da buon informatico, e imprenditore della Silicon Valley, Sam Altman fa riferimento a un concetto fondamentale nell’illustrare questa discesa verso il basso del costo del lavoro, e cioè la Legge di Moore. Si tratta di un costrutto per il quale, anno dopo anno, la potenza dei microprocessori raddoppia mentre il loro costo si dimezza. Egli ha traslato questa legge a ogni ambito dell’economia, a partire dal lavoro.
Applicare «la legge di Moore a tutto», come chiede Altman, significa che «il software in grado di pensare e imparare farà sempre di più il lavoro che le persone fanno ora». E aggiunge: «questa rivoluzione tecnologica è inarrestabile. Si tratta di un ciclo ricorsivo di innovazione: poiché queste stesse macchine intelligenti aiutano a creare macchine più intelligenti, accelerando il ritmo della rivoluzione».
Probabilmente la frase di Facebook sul modo di lavorare che sta cambiando non era né improvvida, né banale, né tantomeno leggera.
Sam Altman, a un certo punto, fa un esempio sconcertante che tuttavia condisce con una buona dose di entusiasmo: «se i robot possono costruire una casa su un terreno che già possiedi, (…) utilizzando l’energia solare, il costo di costruzione di quella casa è vicino al costo per affittare i robot. E se quei robot sono fatti da altri robot, il costo per noleggiarli sarà molto inferiore al periodo in cui li producevano gli umani».
Che fine hanno fatto gli umani in questa equazione?
Un simile modo di pensare è gravido di conseguenze e non è figlio, come il concetto di metaverso, della mente di uno scrittore, ma di Sam Altman, un non laureato (lo dico senza alcuna ironia, era un non-laureato a Stanford anche Steve Jobs, e lo sono Zuckerberg e Bill Gates) all’Università di Stanford, il quale a questa rivoluzione ha contribuito, e continua a contribuire, attivamente con immani risorse economiche, soprattutto nell’ambito della ricerca.
Nello stesso articolo in cui egli profetizza la fine del lavoro salariato per milioni di persone, Altman si lancia in una serie di confuse soluzioni, affinché la “Legge di Moore per tutto” rappresenti un grido di battaglia, una conquista dell’umanità.
Sam Altman non fa il politico, però sarei curioso di conoscere quali siano le risposte della politica di fronte a un simile scenario. Ipotesi che non ha nulla di distopico, per utilizzare un’altra accusa facilona quando si parla di questi argomenti.
Possibilmente la risposta della politica dovrebbe contare su proposizioni che evitino l’aggettivo “nuovo” (va usato con parsimonia, laddove la novità sia nei fatti), e la vuotezza che spesso lo contraddistingue in accoppiata con la parola “tecnologia”.
Lo stesso Elon Musk, che rincorre da tempo una specie di nirvana della produzione senza operai, ha coniato l’espressione «alien dreadnought» (che sta per “corazzate aliene”, e fa riferimento a un futuro alla Terminator, per capirci), per indicare fabbriche totalmente automatizzate in cui le macchine costruiscono altre macchine.
Il nuovo stabilimento Giga-Shangai va in queste direzione: i robot producono, quasi esclusivamente e in autonomia, automobili piene di intelligenza artificiale.
Il futuro post-umano del lavoro
Insomma all’orizzonte si scorge un futuro presente post-umano del lavoro, con o senza robot a disposizione. Futuro presente perché si tratta di un futuro prossimo che tuttavia è in parte già attuale in molti ambiti; e post-umano perché il quoziente di umanità appare quantomeno declinante in tante professioni.
Sia che abitiamo uno spazio digitale, sia che guidiamo una macchina costruita da altre macchine, la percentuale di automazione e di intelligenza artificiale che i nuovi prodotti e ambienti conterranno sarà maggiore di quella attuale, anno dopo anno e alla metà del prezzo, a dare retta a Sam Altman.
L’automazione nei processi industriali nasce insieme alla rivoluzione industriale, ma fino ad oggi è stata confinata nelle fabbriche. Gli stabilimenti industriali sono pieni di robot da decenni.
L’elemento di novità è l’irruzione di questi elementi post-umani nel lavoro, nelle case e in luoghi (scuole, ospedali, caserme) dove i robot non ci sono mai stati. In fondo l’Internet in mobilità è la pre-condizione di tutto questo.
«In futuro, il lavoro fisico sarà una scelta», ha detto Elon Musk. Ecco, direi che le affermazioni di Sam Altman non vanno prese come boutade.
Sarei curioso di capire cosa faranno tutti coloro – non sono pochi – che fanno un lavoro fisico, e che non hanno possibilità di scegliere.
Alcuni diranno che non ci sono particolari novità in tutto questo.
Lo scambio di informazioni tra oggetti intelligenti è già presente, e attuale, a prescindere dalla nostra volontà, tuttavia si profilano all’orizzonte alcuni elementi che mutano alla radice il panorama.
Si comincia a osservare un orizzonte in cui è familiare la relazione tra uomini e lavoratori non umani, e tra uomini e ambienti digitali, con una presenza più marcata, diffusa, della componente artificiale. Con tutte le conseguenze che questo nuovo orizzonte ha generato: abbiamo in fretta imparato a lavorare da remoto in ambienti di questo genere, e ne siamo usciti con le ossa rotte.
Scrive Microsoft in una indagine condotta su 30.000 persone: «il 54% degli intervistati si sente oberato di lavoro. Il 39% si sente esausto. E trilioni di segnali di produttività raccolti da Microsoft 365 quantificano l’esatto esaurimento digitale che i lavoratori sentono. L’alta produttività nasconde una forza lavoro esausta».
Vedo un nesso tra questi dati, il robot di Musk e i nostri avatar seduti a un tavolo, mentre agitiamo le mani nello spazio fisico della nostra cucina o sala da pranzo, mani che si ricreano in uno spazio virtuale ospitato in un server di Facebook, vedo un nesso quando penso che questi movimenti sono abilitati da un oggetto, gli Oculus, che impedisce di vedere ciò che ci è intorno ma illumina un altrove (un altrove che non è un gioco ma il nostro luogo di lavoro), un ambiente cui accediamo con diversi nostri sensi attivati e vigili, in primis la vista e l’udito ma c’è anche il tatto in una differente versione, e questo nesso attiene alla relazione inedita con i nostri corpi e con i corpi dei lavoratori non umani. Una relazione inedita ma non nuova: dopo un anno e mezzo di pandemia ne riconosciamo alcuni tratti.
Da un lato sentiamo una fatica profondissima, vera, una fatica da eccesso di sedentarietà da videopresenza, diversa rispetto al passato, e certificata dai dati di Microsoft, la Zoom fatigue: una fatica che potrà solo aumentare, scivolando nella dimensione ancora più incorporea, come quella virtuale di Workrooms.
Dall’altro scorgiamo all’orizzonte qualcuno – qualcosa, scusate – che potrà prendere il nostro posto, sottraendoci porzioni di fatica o porzioni di latenza nella relazione con l’altro (la tecnologia di Ndivia che ricostruisce il nostro sosia digitale nelle videocall).
I robot non faranno quasi mai i mestieri di coloro che stanno seduti attorno al tavolo nell’ambiente virtuale costruito da Facebook, probabilmente collaboreranno con questo genere di persone. Andranno semmai a sostituire categorie di lavoratori differenti, che svolgono quei compiti noiosi, ripetitivi e pericolosi di cui parla Musk.
Forse è presto, i dati di McKinsey tuttavia ci dicono che tutto questo sta cominciando a scorrere sotto al nostro naso, e la pandemia ha accelerato il processo e ha cominciato a mutare la relazione con corpi di diversa natura, negli spazi di lavoro.
Credo che dovremo riflettere soprattutto su inedite familiarità con oggetti che non ci sono affatto familiari, e che anzi nascono alieni ma con cui dovremo presto familiarizzare: robot e ambienti virtuali di lavoro in cui siamo rappresentati da avatar, un nostro sosia digitale. E la familiarità, come pure l’assenza di familiarità determinano molte reazioni umane, tra le quali includerei la paura. Fin qui abbiamo pensato che tutto questo potesse rimanere nascosto, oppure limitato ad ambiti marginali, che non preoccupano, penso ai giochi, compresi i più cruenti, adesso il virtuale (che non è il digitale!), l’incorporeo e l’artificiale affiorano un po’ ovunque, con frequenza, in molti settori, a partire dal lavoro: le prime minuscole bollicine in una pentola che ha quasi raggiunto la temperatura di ebollizione.
«Spesso e volentieri – scrive Freud nel saggio sul perturbante – ci troviamo esposti a un effetto perturbante quando il confine tra fantasia e realtà si fa sottile, quando appare realmente i nostri occhi un qualcosa che fino a quel momento avevamo considerato fantastico, quando un simbolo assume pienamente la funzione il significato di ciò che è simboleggiato».
In fondo, qualche anno fa, nessuno di noi avrebbe immaginato, se non nella fantasia, ciò che la tecnologia ha permesso durante la pandemia. Nessuno di noi ha esitato, eppure…
Se leggiamo in questo modo le due presentazioni, potremmo dire che hanno come obiettivo comune quello di cominciare a farci familiarizzare con oggetti e spazi perturbanti, con condizioni che ci riguardano in quanto lavoratori e colleghi di altri lavoratori non umani. Una specie di introduzione a come lavoreremo sempre più in assenza del corpo, e in relazione a oggetti, compagni di lavoro, naturalmente sprovvisti di corpo.