News
Archivio newsIntelligenza artificiale nell’organizzazione del lavoro: grandi vantaggi, ma anche rischi e sanzioni
I vantaggi derivanti dall’utilizzo dell’intelligenza artificiale sono sicuramente molti, ma non bisogna trascurare i rischi, perché molti di essi sono oggi ancora sconosciuti. Gravi e ampie sono le implicazioni tecniche ed etiche che stanno emergendo dall’uso dell’intelligenza artificiale e che coinvolgono il mondo del diritto e l’organizzazione del lavoro. L’utilizzo degli strumenti di ultima generazione aumenta il rischio di violazioni non solo delle disposizioni dell’art. 4 dello Statuto dei lavoratori, ma anche delle regole deputate alla protezione dei dati, con alta probabilità di sanzioni da parte del Garante della Privacy. Quali riflessioni devono fare aziende e professionisti che utilizzano queste nuove tecnologie?
L’intelligenza artificiale rischia di trasformarsi in un mostro a due teste che affascina e allo stesso tempo intimorisce soprattutto nel mondo del lavoro. È utile un approccio ragionato al tema, senza timore ma con la consapevolezza dei rischi (molteplici) e delle criticità (soprattutto etiche). Perché, se già oggi tutte le attività sono coinvolte dall’intelligenza artificiale in un modo più o meno significativo (lo siamo tutti noi da anni, fin dagli albori dei primi social network) - anche le libere professioni - molto presto, senza la giusta consapevolezza dei vantaggi ma anche dei rischi, la diffusione di sistemi sempre più intelligenti e complessi sarà così estesa e pervasiva da rendere estremamente difficile l’analisi - già oggi incalzante - delle sue implicazioni. Implicazioni tecniche, in primo luogo: i sistemi di ultima generazione sono così avanzati da sviluppare modelli di calcolo e di elaborazione in grado in alcuni casi di sfuggire ai loro creatori creando degli algoritmi distorti (in gergo tecnico bias) che a volte possono anche essere molto difficili da correggere. Il che può comportare anche ben più grandi rischi etici (F. Rossi, 2019). Un esempio? Istruire un software per selezionare i candidati ad una determinata posizione immettendo dati che in base a mere scelte tecniche (anche solo determinate dall’esperienza di casi passati) seppure non siano guidate da alcun intento discriminatorio, potrebbero comunque determinare degli sbarramenti in termini di razza, di etnia o di genere. Una nota grande azienda di e-commerce ha infatti avviato - e quindi prontamente abbandonato - un progetto di analisi e di valutazione dei curricula ricevuti dai candidati utilizzando un criterio di sbarramento analogo a quello utilizzato per alcuni anni nel sistema giudiziario statunitense per aiutare i Giudici nella valutazione dei casi di recidiva per l’accesso alla libertà vigilata. In pratica, tale sistema stabiliva i casi di recidiva e se la persona dovesse rimanere in prigione oppure uscire su cauzione. Si è scoperto poi che l’utilizzo del medesimo dato tecnico (in gergo tecnico pattern) per la valutazione dei curricula dei candidati (con analisi quindi dei possibili precedenti penali) finiva per generare un algoritmo che replicava alcuni pregiudizi storici nei confronti della popolazione nera (dato ignorato dagli sviluppatori). Né più né meno delle criticità che erano emerse con il software - poi abbandonato - utilizzato dal sistema giudiziario. Come segnalato anche dalla comunità scientifica da anni, sono grandi e molteplici i vantaggi dell’intelligenza artificiale, ma non bisogna trascurarne i rischi perché molti di essi sono oggi sconosciuti. Soprattutto perché siamo passati nell’arco di pochissimi anni dai sistemi di machine learning (ML), all’AI di tipo generativo - come ChatGPT - che potenzialmente sarà in grado in futuro di auto-alimentarsi. E qui veniamo alle ben più gravi e ampie implicazioni etiche che stanno emergendo dall’uso dell’Intelligenza Artificiale. Implicazioni che coinvolgono il mondo del diritto sia sul piano della privacy e della gestione dei dati - quindi soprattutto sul piano regolatorio - ma anche sul piano dell’organizzazione del lavoro. Lo abbiamo già visto in questi anni, l’uso sempre più esteso e pervasivo della tecnologia ha comportato la necessità di una revisione dell’impianto normativo deputato, all’interno del nostro ordinamento giuridico, al divieto del controllo a distanza del lavoratore, così come disciplinato dall’art. 4 dello Statuto dei Lavoratori. Ma l’accelerazione senza precedenti che si è avuta negli ultimi anni nei sistemi di intelligenza artificiale apre oggi scenari del tutto nuovi anche in questa materia. Sono proprio gli strumenti di ultima generazione quelli che mettono più a rischio non solo di violazione delle disposizioni del citato art. 4, ma anche di violazione delle regole deputate alla protezione dei dati, con alta probabilità di sanzioni da parte del Garante della Privacy: si pensi ai sistemi di riconoscimento biometrico, ma anche alla maggior parte degli strumenti oggi utilizzati per la gestione delle attività di logistica, tutte ormai così automatizzate da rendere tracciabile - e quindi controllabile - ogni singola azione posta in essere dal lavoratore, anche non direttamente connessa con l’esecuzione della prestazione lavorativa. Per non parlare dei rischi etici che derivano dall’utilizzo dei sistemi di intelligenza artificiale di tipo generativo (come appunto ChatGPT) che immagazzinano dati dell’utente perché necessari per l’alimentazione dell’algoritmo su cui si fondano. Da qui le importanti implicazioni, soprattutto in termini di gestione dei dati che sono già allo studio della maggior parte dei Governi. Non solo in Europa ma anche oltreoceano. L’Unione Europea il 14 giugno 2023 ha approvato la proposta di Regolamento sui sistemi di Intelligenza Artificiale - proposta di regolamento del Parlamento europeo e del Consiglio (21.04.2021) “Che stabilisce regole armonizzate sull’Intelligenza Artificiale (Legge sull’Intelligenza Artificiale) e modifica alcuni atti legislativi dell’Unione”. La proposta è il frutto di anni di analisi e di ricerche sull’argomento, soprattutto di natura etica. Nel 2019 sono state infatti pubblicate dal gruppo di studio nominato dalla Commissione europea le Linee Guida etiche per IA in Europa, manifesto fondamentale per uno sviluppo dei sistemi di Intelligenza Artificiale che tenga conto, in primo luogo, della posizione e del benessere degli individui ma soprattutto dei rischi di una società governata unicamente dalla tecnologia. Programma etico fondamentale per evitare che anche in questo campo - come la crescita esponenziale di alcune applicazioni sta già dimostrando - la corsa sfrenata al profitto ci faccia prima o poi svegliare da un brutto sogno. La partita a questo punto è nelle mani di tutti: dai singoli individui ma soprattutto delle aziende e dei professionisti che le assistono. È per questo che 1000 ricercatori a livello mondiale, guidati dall’imprenditore Elon Musk hanno deciso di sottoscrivere una moratoria nello sviluppo di questa tecnologia. In pratica una pausa di riflessione di almeno 6 mesi nello sviluppo dei sistemi più avanzati. Siamo appena agli inizi ma la partita andrà giocata con grande cautela. Copyright © - Riproduzione riservata