News
Archivio newsL’AI nel lavoro: serve un’agenda normativa per riportare al centro i diritti dei lavoratori. Eccola!
L’Europa ha scelto, con l’AI Act, di regolare l’intelligenza artificiale come un prodotto. E’ compito del diritto interno ricondurla entro i confini costituzionali della persona, del lavoro, della partecipazione e il legislatore nazionale non può più permettersi di rinviare. Serve un cambio di paradigma. Serve un’agenda normativa per riportare al centro i diritti dei lavoratori nell’era dell’algoritmo. Eccola!
Con l’approvazione dell’AI Act, l’Unione europea compie un passo importante nella regolazione dell’intelligenza artificiale. Si tratta del primo testo normativo sovranazionale che tenta di incardinare l’IA in una cornice giuridica comune, attraverso un impianto graduale basato sul rischio. Tuttavia, la scelta della base giuridica - ancorata al funzionamento del mercato interno - ha inciso profondamente sull’impostazione del Regolamento, che si rivela, a ben vedere, più vicino alla logica del prodotto commerciabile che a quella della persona.
L’AI Act disciplina l’immissione sul mercato europeo di sistemi di IA, stabilendo obblighi in capo a fornitori, importatori e distributori, ma non affronta le conseguenze concrete dell’adozione dell’IA nei contesti organizzativi e lavorativi. Il suo approccio è funzionale a garantire la libera circolazione di tecnologie “sicure” e “affidabili”, non a tutelare i diritti di chi con queste tecnologie dovrà interagire ogni giorno. Ne deriva una scollatura profonda tra la regolazione tecnica e la protezione sociale, che lascia inevasi numerosi interrogativi giuslavoristici.
È da notare che il Regolamento non considera nemmeno l’ipotesi - in realtà tra le più diffuse - dell’impiego dell’IA, come vero e proprio strumento di lavoro: assistenti virtuali, chatbot, generatori di testi e immagini, dispositivi wearable, sistemi predittivi, sono già oggi strumenti quotidiani per milioni di lavoratori.
Eppure, l’uso di sistemi di IA generativa nei contesti aziendali apre scenari delicatissimi non solo sotto il profilo della protezione dei dati personali, ma anche della tutela del patrimonio intellettuale e dei segreti industriali della stessa impresa.
Infatti, si sono già verificati casi in cui dipendenti, inconsapevolmente, hanno caricato codici proprietari e riservati sulla memoria di sistemi di intelligenza artificiale generativa.
Le aziende, quindi, dovranno predisporre policy aziendali ed erogare adeguata formazione del personale sull’uso degli strumenti intelligenti. Anche su questo fronte, l’AI Act tace, lasciando impreparate le organizzazioni e privo di riferimenti il datore di lavoro, che si trova a dover bilanciare innovazione e sicurezza.
Ancora più strategico è il tema dell’impatto dell’IA sul lavoro creativo e cognitivo, destinato a essere progressivamente automatizzato. Se in passato il rischio tecnologico riguardava mansioni ripetitive e standardizzabili, oggi sono professioni ad alto contenuto intellettuale - giornalisti, copywriter, designer, analisti - ad essere esposte a processi di sostituzione.
La questione giuridica non è solo occupazionale, ma identitaria: qual è il ruolo della creatività della persona nel lavoro del futuro? E quali sono gli strumenti normativi per garantire che la creatività umana non venga soppiantata, ma accompagnata, dall’innovazione?
A tutto ciò si somma una serie di “intrecci problematici” tra AI Act e diritto del lavoro, che il Regolamento non chiarisce.
Per fare soltanto degli esempi, in materia di salute e sicurezza, sebbene il D.Lgs. n. 81/2008 imponga al datore di lavoro l’obbligo di valutare tutti i rischi presenti nell’organizzazione, inclusi quelli derivanti da strumenti tecnologici, l’AI Act non prevede alcuna disposizione sugli impatti avversi che l’interazione con sistemi di intelligenza artificiale - in particolare quelli generativi - può produrre sulla mente umana. La velocità di elaborazione e risposta di questi strumenti, unita alla loro apparente autorevolezza, rischia di indurre nel lavoratore fenomeni di disorientamento, stress cognitivo, perdita di controllo sul contenuto della propria attività, con potenziali ricadute psicosociali oggi del tutto trascurate dalla normativa europea.
Quanto ai limiti al controllo datoriale, l’impiego di sistemi di IA per monitorare movimenti, produttività e persino stati emotivi dei lavoratori si colloca in una zona grigia normativa. A preoccupare è, in particolare, l’apparente ammissibilità della “sentiment analysis” in ambito lavorativo per finalità di “sicurezza”, secondo una lettura combinata dell’art. 5 del Regolamento (in tema di pratiche vietate) e del considerando n. 18, che tenta di circoscrivere la nozione di emozione, escludendo gli stati affettivi legati a condizioni fisiche come l’affaticamento. Tuttavia, simili forme di monitoraggio si pongono in potenziale contrasto con i divieti statutari in materia di controllo a distanza, di indagini sul lavoratore e con i principi del GDPR, senza che il Regolamento europeo offra indicazioni sistematiche o linee guida coerenti.
Anche sul fronte della trasparenza e della non discriminazione, il Regolamento si dimostra timido. Impone obblighi informativi, ma non contempla reali meccanismi di consultazione e di accesso o verifica da parte dei lavoratori e delle loro rappresentanze. Non prevede valutazioni d’impatto ex ante sui diritti fondamentali, né sistemi di audit algoritmico, demandando tutto alla “sorveglianza umana” del deployer, che potrebbe tradursi in un adempimento meramente simbolico.
Non viene inoltre riconosciuto, nel Regolamento, il ruolo cruciale delle relazioni industriali, che pure potrebbero costituire un presidio strategico per governare gli effetti dell’intelligenza artificiale nei contesti produttivi. L’AI Act si limita a menzionare genericamente obblighi informativi nei confronti delle rappresentanze dei lavoratori prima che il sistema di IA sia intallato, senza prevedere forme di partecipazione sostanziale, né tantomeno strumenti cogenti di coinvolgimento preventivo o di controllo ex post. Una scelta che appare ancor più miope se confrontata con la coeva Direttiva sulle piattaforme digitali, che invece valorizza il dialogo sociale come leva per l’equilibrio tra innovazione e tutela. Il legislatore europeo, così facendo, rinuncia a sfruttare il potenziale delle relazioni industriali non solo come sede di bilanciamento tra diritti fondamentali e interessi produttivi, ma anche come laboratorio di regole condivise e di apprendimento collettivo. Al contrario, una partecipazione rafforzata - attraverso l’introduzione obbligatoria di audit etici, la consultazione vincolante sui sistemi di IA e l’accesso alle valutazioni d’impatto - potrebbe rappresentare una chiave per accompagnare l’innovazione tecnologica lungo un percorso di sostenibilità sociale, prevenendo conflitti, rafforzando la legittimazione interna delle scelte aziendali e ampliando gli spazi della democrazia economica.
Serve allora un autentico cambio di paradigma, che il legislatore nazionale non può più permettersi di rinviare.
Se l’Europa ha scelto di regolare l’intelligenza artificiale come un prodotto, è compito del diritto interno ricondurla entro i confini costituzionali della persona, del lavoro, della partecipazione.
Invece sembra che L’art. 11 del DDL approvato dal Senato il 20 marzo 2025 sull’impiego dell’intelligenza artificiale in ambito lavorativo sollevi più interrogativi di quanti ne risolva. Il comma 1 individua alcune finalità tipizzate che dovrebbero essere raggiunte attraverso l’impiego dell’IA. Inoltre, non viene menzionato il mercato del lavoro, ambito oggi centrale nell’uso delle nuove tecnologie. Il comma 2 si limita a un rinvio poco chiaro al comma 1-bis del Decreto Trasparenza, trascurando del tutto la dimensione collettiva dell’informazione, che è invece cruciale in un contesto lavorativo. Il comma 3, infine, appare ridondante e contiene inoltre un elenco incompleto dei possibili fattori discriminatori.
L’innovazione non può procedere su binari esclusivamente tecnici, lasciando ai margini i diritti fondamentali. Occorre introdurre una valutazione d’impatto obbligatoria sull’uso dell’IA nei luoghi di lavoro; definire policy aziendali chiare e vincolanti per un utilizzo responsabile delle tecnologie; garantire una formazione diffusa, autorevole e indipendente per tutti i soggetti coinvolti nei processi aziendali; rafforzare la trasparenza e la tracciabilità delle decisioni automatizzate; riconoscere il diritto delle rappresentanze sindacali ad accedere alla documentazione tecnica e a intervenire nel governo dei sistemi intelligenti. Soprattutto, è necessario tutelare la creatività, l’autonomia e l’intelligenza umana nei contesti professionali, anche attraverso strumenti partecipativi e negoziali che restituiscano ai lavoratori un ruolo attivo nella transizione digitale.
Queste misure non sono un ostacolo al progresso, ma il suo fondamento giuridico ed etico. Senza regole chiare e condivise, il lavoro rischia di farsi invisibile, residuale, schiacciato da logiche tecnocratiche e opache.
La sfida dell’intelligenza artificiale è già tra noi. Ed è, a tutti gli effetti, un banco di prova per la capacità del diritto di accompagnare la modernità, senza sacrificare la dignità del lavoratore sull’altare dell’efficienza.
Copyright © - Riproduzione riservata
Per accedere a tutti i contenuti senza limiti abbonati a IPSOA Quotidiano Premium 1 anno € 118,90 (€ 9,90 al mese) Acquista Primi 3 mesi € 19,90 poi € 35,90 ogni 3 mesi Acquista Sei già abbonato ? Accedi