L’Intelligenza Artificiale verso il dominio sul lavoro manuale

Continuiamo a esplorare le tendenze di sviluppo dell’intelligenza artificiale applicata al lavoro e alla robotica umanoide

Guardate con attenzione questo video vedrete degli operai in una fabbrica di abbigliamento che potrebbe essere in India o nel Bangladesh che indossano una specie di cerchietto con una telecamera per riprendere il loro lavoro. E’ da qualche giorno che questo video circola sui social e le domande che molti si sono posti sono sostanzialmente due. La prima: ma è vero che questa è una domanda da farsi ormai ogni volta che si vede un video grazie all’intelligenza artificiale; e la seconda domanda è; ma se è vero, a cosa servono questi filmati?

Ebbene la risposta, ve la sto per dare nella storia che vi racconto adesso e vi avverto non pensiate che riguardi solo quella fabbrica o paesi molto lontani da noi riguarda piuttosto un cambiamento in corso in tutto il mondo nel modo in cui l’intelligenza artificiale sta venendo addestrata un cambiamento che coinvolge non solo gli operai tessili, ma anche i dipendenti, ad esempio di Meta, Tesla e altre migliaia di lavoratori sparsi in in tutto il mondo.

Ciao, Sono Stefano Silvestri e per capire cosa sta succedendo in quella fabbrica, dobbiamo fare un passo indietro.

I grandi modelli di intelligenza artificiale hanno imparato a scrivere tradurre e programmare divorando internet, ma l’ho già detto anche in un altro video per costruire IA in grado di muoversi nel mondo fisico internet non basta più.

Serve qualcosa che il web non ha, ossia il punto di vista di chi agisce.
Queste informazioni hanno un nome ben preciso e si chiamano “egocentric data” che in italiano potremmo tradurre in dati egocentrici, sebbene questo oggettivo faccia pensare a tutt’altro.

Questi dati si ottengono con riprese in prima persona che catturano esattamente quello che vede e fa chi compie una determinata azione.
Non parliamo di telecamere esterne che osservano la scena, ma che vengono proprio montate sulla testa o negli occhiali e che registrano le mani che si muovono, le dita che afferrano la sequenza precisa di ogni gesto un po’ come erano i Ray Ban Glasses di Zuckerberg per capirci. Solo che qui non parliamo di una scelta consapevole, ma di una imposizione da parte dei datori di lavoro.

Certo, si potrebbe obiettare che quantomeno i lavoratori che abbiamo visto nel filmato iniziale vengono pagati anche per fornire i dati egocentrici.

Mentre nel caso degli occhiali di Meta siamo noi a pagare di tasca nostra per fornire dati a Zuckerberg, Ma volete mettere sentirsi alla moda indossando uno dei gadget Tech più trendy del momento?

Vabbè dai comunque torniamo in tema.

I dati egocentrici non sono una curiosità accademica.
Nel 2021 Meta, guarda caso, ha annunciato Ego 4d, ossia 3670 ore di video egocentrici raccolti in nove paesi.

È uno dei progetti che hanno portato questo campo di ricerca verso una nuova scala e l’idea è semplice per insegnare a un IA a capire davvero cosa vede e cosa fa una persona non basta una telecamera esterna.

Serve il punto di vista di chi agisce.
Nvidia ha recentemente rilanciato questa logica con Groot che il suo modello fondazionale open source per robot umanoidi pre addestrato anche questo su 20.000 ore di video egocentrici umani e ha annunciato di avere individuato quella che definisce una prima legge di scala per la destrezza robotica, aumentando infatti, i dati umani in prima persona da 1000 a 20.000 ore, il completamento medio dei compiti manuali sarebbe raddoppiato. Il messaggio, quindi è chiarissimo: il punto di vista umano, la mano umana, la sequenza di gesti umani, sono dati sempre più preziosi per addestrare i robot.

Mark Zuckerberg e Jen-Hsun Huang però non sono gli unici a essere interessati ai dati egocentrici, Tesla come sappiamo sta sviluppando Optimus che è il suo robot umanoide. Nei video ufficiali lo vediamo, camminare e piegare vestiti e anche distribuire caramelle.
La realtà del training ormai però l’abbiamo capita. Se fino all’estate scorsa Tesla usava il Motion Capture poi ha cambiato strategia, quindi via le tute con i sensori e dentro i caschi con le telecamere. I lavoratori di Musk a questo punto indossano l’equipaggiamento e svolgono compiti ordinari come piegare t-shirt e raccogliere oggetti.
Con la differenza è che quando facciamo noi queste cose a casa ci sembrano una seccatura, ma se le si fa per Tesla si può tornare dall’ufficio e pensare di avere in qualche modo contribuito allo sviluppo dell’umanità.

Intorno ai dati egocentrici si sta comunque strutturando un mercato.
Instawork è una piattaforma americana di lavoro On Demand che mette in relazione le aziende con oltre 10 milioni di lavoratori finora impiegati, soprattutto in hotel ristorazione e magazzini. Lo scorso 16 aprile ha annunciato una svolta verso la robotica con Instacore che ha un sistema di telecamere indossabili pensato per registrare attività svolte in ambienti reali e trasformarle in dati utili per chiaramente addestrare robot e sistemi di IA fisica.

Alcuni lavoratori vengono così impiegati per mostrare ai robot come si piegano, le lenzuola di un albergo o come si svolgono compiti nelle cucine, ad esempio commerciali.

L’azienda sostiene di avere già più di 20.000 lavoratori certificati per questo nuovo programma, ma sostiene anche che per accompagnare davvero la transizione ne servirebbero molti di più.
Figure AI ha invece stretto una partnership con Brookfield che uno dei più grandi asset manager al mondo per raccogliere video umani in una vasta gamma di ambientazioni reali e usarli per addestrare Helix che è proprio un modello per robot umanoidi. La formula esatta usata dall’azienda è “Human Video Capture in a Variety of Brookfield Environments”.

Quindi non la raccolta sistematica di filmati dentro a centomila case private, ma l’uso proprio di spazi appartenenti al portafoglio Brookfield per costruire un grande data set di pre-addestramento.

Humyn Labs invece è una startup indiana che su questo ci sta costruendo un Business Model molto esplicito, 20 milioni di dollari investiti operazioni in India, Sud Est Asiatico e America Latina.

La tesi è che il Global South non è solo dove i dati costano meno, ma è anche dove si parlano le lingue che i modelli occidentali ancora non comprendono.
I robot verranno controllati con la voce, dice il fondatore, e quella voce deve capire l’Indi, il portoghese, brasiliano e il bahasa indonesiano.

E arriviamo alla notizia che ho dato ieri su tecktalking.it.
Meta installerà nel computer dei suoi dipendenti un software chiamato Model Capability Initiative. Registrerà, i movimenti dei mouse, il click e le pressioni sui tasti della tastiera.

Il memo interno visionato da Reuters è alquanto esplicito se stiamo costruendo agenti per aiutare le persone a completare task quotidiani al computer i nostri modelli hanno bisogno di esempi reali di come le persone li usano chiaramente con buona pace dei dipendenti, uno dei quali, che ha chiesto di restare anonimo, ha dichiarato alla BBC di stare vivendo in una sorta di racconto distopico, mentre un altro, che ha lasciato l’azienda, ha dichiarato è solo l’ultimo modo in cui ci stanno ficcando l’IA in gola. Beninteso meta non è la prima azienda a monitorare i propri dipendenti, ma il punto qui è un altro.

Il lavoratore non produce più solo valore col proprio lavoro ormai produce anche dati che serviranno a costruire gli agenti destinati a prendere carico del suo impiego e tutto questo non solo, sospetto, a parità di retribuzione, ma per conto di un’azienda che sta anche pianificando tagli che potrebbero stoccare tra l’8 e il 10% della forza lavoro globale.

Ma torniamo in India.
Naveen Kumar ha 28 anni ed è un ingegnere che lavora in una città Tessile nel sud dell’India ogni mattina si monta una GoPro sulla fronte e comincia a piegare asciugamani centinaia di volte seguendo una sequenza rapidissima di movimento deve prendere l’asciugamano dal cesto alla sua destra, scuoterlo, piegarlo con precisione e posizionarlo sempre nello stesso punto. L’obiettivo non è riordinare la biancheria per un albergo, ma catturare dal suo punto di vista ogni singolo gesto umano così da trasformarlo in dati utili all’addestramento dei robot.

Il Los Angeles Times racconta che a fine giornata questi video vengono poi inviati a un cliente statunitense.

Insomma non si sta più comprando il lavoro nel senso tradizionale, ma si sta comprando il modo in cui quel lavoro ormai viene svolto.
Il collega Kavin di 27 anni, osserva video di robot che cercano di piegare i vestiti.
A volte il robot Lancia i vestiti invece di piegarli dice a volte sparpaglia tutto e poi aggiunge: in 5 o 10 anni saranno in grado di fare tutti i lavori e non ne resterà più nessuno per noi.

In chiusura permettetemi un parallelo con Matrix.
In quel film gli esseri umani tenevano invita le macchine col proprio corpo. Nel modo di oggi le alimentiamo non con l’energia, ma con le informazioni generate da noi.
La differenza però è che qui nessuno ci infila in una capsula.
Ci basta andare al lavoro.

———————————————————–

Cespuglio. Ti mando la trascrizione di un video di Stefano Silvestri di techtalking.it. Dimmi cosa ne pensi

https://claude.ai/share/e23426e7-961b-4d39-b4a7-5671017548b0

Claude. È un testo divulgativo di buona fattura — scorrevole, ben costruito narrativamente, con un paio di esempi concreti efficaci (Naveen Kumar, l’annuncio Meta). Silvestri sa fare giornalismo tecnologico per un pubblico generalista.

Detto questo, ci sono alcune cose su cui vale la pena ragionare criticamente.

Cosa funziona bene

Il concetto centrale è solido e importante: i dati egocentrici come nuova frontiera dell’addestramento per l’IA embodied. Il salto da “divorare internet” a “catturare il punto di vista di chi agisce” è descritto in modo preciso. E il caso Meta — dipendenti che producono i dati per gli agenti che li sostituiranno — è una contraddizione reale, non una forzatura.

Dove il testo scivola

La chiusura con Matrix è il punto più debole. Non perché il parallelo sia sbagliato in sé, ma perché è troppo confortante: suggerisce che la situazione sia leggibile con categorie distopiche preesistenti, il che in realtà depotenzia l’analisi. Matrix è fiction con una struttura morale chiara: ci sono i cattivi (le macchine), c’è la resistenza, c’è la capsula da cui uscire. La realtà è più opaca — nessun villain unico, nessuna capsula visibile, e soprattutto nessun “fuori”. La battuta finale “ci basta andare al lavoro” è brillante retoricamente, ma chiude il discorso invece di aprirlo.

Una lacuna sostanziale

Il testo non dice nulla su chi controlla questi dati, con quali diritti, in quale quadro contrattuale e normativo. Si passa da Humyn Labs (India, Sud-Est Asiatico, America Latina) a Tesla a Meta senza mai toccare la questione: questi lavoratori hanno firmato cosa? Quanto vengono pagati per i dati, rispetto al lavoro? Esiste qualche forma di collective bargaining su questo? La dimensione del rapporto di forza rimane sullo sfondo, evocata ma non analizzata.

Il punto più interessante che Silvestri tocca senza svilupparlo

La frase “non si sta più comprando il lavoro nel senso tradizionale, ma si sta comprando il modo in cui quel lavoro viene svolto” è la più acuta del testo. È una trasformazione qualitativa della merce-lavoro: non si vende più tempo e capacità fisica, ma pattern cognitivo-motori — cioè qualcosa di molto più vicino a ciò che Marx avrebbe chiamato general intellect, ma nella sua versione incorporata, fisica. Questo merita molto più spazio di quello che Silvestri gli dedica.

In sintesi: utile come introduzione al tema per un pubblico non specializzato, ma si ferma esattamente dove comincerebbe un’analisi seria.
—————————————————————-

Adesso vediamo il punto di vista di NotebookLM

https://notebooklm.google.com/notebook/1b2a3405-a766-4a30-b29a-b0cea8775155

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *