I lavoratori che addestrano l’IA si trovano oggi nel punto più delicato della transizione tecnologica: trasferiscono competenze ai sistemi automatizzati mentre si ridefiniscono tutele, controlli e rischio di sostituzione. Il caso Meta rende questo conflitto improvvisamente concreto La recente vicenda che ha coinvoltoMeta— sospettata di aver registrato movimenti del mouse e input da tastiera dei propri dipendenti a fini di addestramento dell’intelligenza artificiale— offre l’occasione per esaminare un nodo giuridico ed etico di crescente rilevanza: quello dellavoratore che trasferisce il proprio sapere tacito a un sistema automatizzato. L’analisi che segue attraversa il quadro normativo vigente, le implicazioni occupazionali e le tensioni sociali che ne derivano, con uno sguardo al primo licenziamento collettivo italiano esplicitamente motivato dallasostituzione con l’IAe al ruolo della cultura pop del dibattito giuridico e sociale. La notizia secondo cuiMetaavrebbe registrato l’attività degli utenti-dipendenti per addestrare i propri modelli di intelligenza artificiale ha riportato al centro del dibattito una questione che il diritto del lavoro fatica ancora a sistematizzare compiutamente: quella del confine tra controllo lecito dell’attività lavorativa e acquisizione surrettizia di dati personali. Il quadro normativo di riferimento — tanto loStatuto dei Lavoratoriquanto ilRegolamento generale sulla protezione dei dati (GDPR)— individua nella finalità e nella trasparenza i criteri discriminanti. Il monitoraggio occulto dell’attività del dipendente, privo di accordo sindacale o di giustificazione organizzativa documentata, unitamente a un’esaustiva informativa dei dipendenti, si colloca fuori dall’area della liceità. Diverso è il caso in cui la “registrazione” dei comportamenti costituisca parte integrante della prestazione lavorativa perché esplicitamente dedotta nel contratto di assunzione e nella job description: quando, cioè, il dipendente ha accettato di agire come formatore del sistema, mostrando in modo consapevole all’algoritmo come risolvere un task specifico. La barriera dell’illiceità cade ma si apre immediatamente un problema di natura diversa. Stiamo già assistendo all’emersione di nuove figure professionali — l’AI Tutor, ilData Labeller, l’annotatore semantico — che incorporano esattamente questa funzione. Si tratta di lavoratori il cui compito consiste nel rendere esplicito ciò che, nell’attività umana, rimane tacito: l’esperienza accumulata, il ragionamento intuitivo, la capacità di navigare situazioni ambigue che nessun manuale saprebbe descrivere. Il paradosso è che il lavoratore sta trasferendo il proprio sapere a unsistema matematicoprogettato per renderlo, nel medio periodo, sostituibile. La questione è di ordine sia economico sia etico. Dal punto di vista strettamente aziendale, una volta che il modello ha raggiunto un’accuratezza sufficiente nell’eseguire un compito, il valore del supervisore umano che lo ha addestrato tende a ridursi progressivamente. Il rischio di licenziamento successivo alla fase addestrativa non è una proiezione pessimistica: è la logica conseguenza del processo, almeno nelle organizzazioni che non investono inriqualificazione. A Marghera, il9 marzo 2026, nello stabilimento veneziano diInvestItaly, piattaforma digitale per la gestione del patrimonio rivolta alle istituzioni finanziarie, un’azienda statunitense ha proceduto al licenziamento collettivo di37 lavoratori. La motivazione addotta, in via estremamente semplificata, è stata la sostituzione delle mansioni svolte dal personale con sistemi di intelligenza artificiale. Si tratta del primo caso documentato in Italia di licenziamento collettivo nell’ambito del quale la motivazione di natura organizzativa è stata direttamente ricondotta all’automazione intelligente, e in quanto tale costituisce un precedente giuridico e simbolico di rilievo. Ridurre il problema alla sua componentetecnico-giuridicasarebbe un errore di prospettiva. Il nodo più profondo è politico, e riguarda la distribuzione dei benefici — e dei costi — della transizione tecnologica. Chi ha contribuito, con la propria attività lavorativa, all’addestramento di un sistema che successivamente lo sostituisce, ha diritto a qualche forma di tutela specifica, riconoscibile in sede contrattuale o normativa? La risposta non può essere lasciata alla sola discrezionalità aziendale. Due scenari si profilano con chiarezza: da un lato, l’obsolescenza della mansione, con conseguente possibilità per il datore di lavoro di ricorrere al licenziamento per giustificato motivo oggettivo; dall’altro, l’evoluzione assistita, in cui la partecipazione al processo addestrativo costituisce l’anticamera di un percorso di riqualificazione e non la premessa di un’uscita. La scelta tra i due dipenderà in larga misura dalla capacità del legislatore di ridefinire il perimetro degliammortizzatori socialie delle parti sociali di negoziare tutele adeguate, a livello di contrattazione collettiva nazionale e non da ultimo a livello di contrattazione integrativa aziendale, con piani di medio periodo. Non è privo di interesse che il dibattito trovi una rappresentazione culturale precisa nel mondo delcinema. Nel recentissimo sequel de Il Diavolo veste Prada, il racconto si apre con il licenziamento collettivo di una redazione giornalistica, comunicato via e-mail nel corso di una serata di premiazione degli stimati giornalisti. Il dettaglio non è accessorio: condensa in un’immagine la questione della dignità del lavoro intellettuale nell’era della sua possibile automazione. Il film lascia aperta — e intenzionalmente irrisolta per un periodo che non va oltre i due anni — la domanda se resistere puntando sulla qualità del pensiero umano sia un atto di visione o di anacronismo. La stessa tensione percorre il dibattito reale. La posizione secondo cui illavoro intellettuale di qualitàresterà irriproducibile dall’algoritmo è sostenuta da argomenti seri; quella contraria — che il capitale editoriale e finanziario tenderà a sostituire il più possibile con l’automazione ciò che oggi costa — è sostenuta da dati altrettanto seri. Non è detto che le due prospettive siano incompatibili: è probabile che convivano in settori diversi, con esiti diversi. Comunque, bisogna essereproattivi, aiutare e aiutarsi. Per questo, governare questa transizione in modo eticamente sostenibile — senza rinunciare alle opportunità offerte dall’innovazione — richiede interventi coordinati su più livelli. Sul piano contrattuale, l’attività di addestramento dei modelli dovrebbe essere riconosciuta come prestazione qualificata, con garanzie esplicite sul destino occupazionale del lavoratore coinvolto. Sul piano normativo, gli istituti di tutela andrebbero pensati in chiave strutturale, non emergenziale, come di recente costantemente avviene. Sul piano culturale, infine, le organizzazioni che scelgono di coinvolgere le persone in percorsi di crescita anziché utilizzarle come risorsa addestrativa esauribile sono capaci di costruire un capitale di fiducia difficilmente replicabile e andrebbero sostenute, anche pubblicamente, in questi percorsi. In conclusione, la vicendaMetanon è un episodio di cronaca tecnologica. È la cartografia di uno scontro che si dispiegherà nei prossimi anni tra le ragioni dell’innovazione e quelle della sostenibilità sociale del cambiamento. La posta in gioco non è soltanto la tutela di singole categorie di lavoratori: è la definizione del patto sociale che vogliamo stringere, come collettività, con i sistemi di intelligenza artificiale che stiamo costruendo. Iscriviti alla newsletter per ricevere articoli di tuo interesse Prendi visione dell’Informativa Privacye, se vuoi, seleziona la casella di consenso.