News
Archivio newsSelezione del personale nelle aziende. Va bene l’AI, ma sotto la “sovranità” dell’intelligenza naturale
L’utilizzo delle intelligenze artificiali nella selezione del personale ha suscitato un ampio dibattito tra gli studiosi e gli operatori del mondo del lavoro. Il settore del recruiting, del talent acquisition, della ricerca e selezione delle risorse umane, del job placement costituisce un esempio di come l’IA possa rappresentare non più un’opportunità, ma una realtà che consente analisi e tempi di elaborazione non conosciuti in passato, a condizione che operi sotto la “sovranità” decisionale dell’intelligenza naturale. La soluzione di questa potenziale dicotomia fra decisioni umane e automatizzate? Rimanere in linea di continuità con quanto alla base della legislazione comunitaria, l’integrazione dei due approcci!
Il tema dell’utilizzo delle intelligenze artificiali nella selezione del personale è uno di quelli che per primi ha suscitato un ampio dibattito tra gli studiosi e gli operatori del mondo del lavoro, per la capacità dello strumento di processare una pressoché infinita quantità di dati e da questi trarre conseguenze sempre più precise in termini di selezione dei profili.
La selezione dei profili professionali di maggiore interesse, o potenzialmente tali, è in realtà parte di un tema più ampio che attiene ai processi decisionali automatizzati e con questo anche alla possibilità che questi determinino forme di discriminazione non solo diretta, ma anche, e più spesso, indiretta, nell’inconsapevolezza, cioè, dell’utente finale. Tali forme di discriminazione trovano la loro genesi dalla selezione delle fonti da cui alcuni dati vengono attinti, dalle logiche di aggregazione di quegli stessi dati, ma anche dalla determinazione del valore dei diversi elementi acquisiti e processati.
Il tema non può essere compreso fino in fondo - anche con riferimento al potenziale discriminatorio - se non avendo a mente le diverse modalità algoritmiche con cui operano le intelligenze artificiali.
In ambito IA è possibile - quanto meno sommariamente - distinguere fra algoritmi RB (rule based) e algoritmi ML (machine learning).
Mentre i primi hanno la caratteristica di operare sulla base di regole logiche, di essere statici, di produrre un risultato sostanzialmente prevedibile ex ante e ricostruibile ex post, i secondi si fondano su metodi statistico/probabilistici, sono dinamici, il risultato non è del tutto prevedibile ex ante, e non sempre spiegabile e comprensibile ex post.
Avendo a mente questa distinzione - per quanto estremamente ampia - si può affermare che la discriminazione algoritmica può dipendere essenzialmente da tre fattori.
Il primo da prendere in considerazione è quello più classico, ovvero quello che deriva dal fattore umano. In questo caso, laddove il sistema sia fondato su un algoritmo RB le ragioni sono evidenti. Nel caso di un algoritmo ML, seppure indirettamente, dipende dai dati selezionati e appresi, e dai feedback di quei dati.
L’ulteriore elemento da cui possono derivare forme di discriminazione dipende dalla selezione di quali e quanti dati vengono processati. Nel caso di utilizzo di un algoritmo ML, ad esempio, un numero limitato di dati potrebbe non generare un’indagine statistica sufficiente ad avere un campione significativo, e quindi produrre un effetto “discriminatorio”.
Il terzo ed ultimo elemento da cui è possibile che discenda una discriminazione - a maggior ragione in fase di selezione - riguarda l’utilizzo dei proxy. Quest’ultima ipotesi riguarda solo i sistemi ML, che assumono decisioni stabilendo delle relazioni probabilistiche tra variabili che corrispondono a relazioni di natura statistica e non causale. In questo caso, nell’ipotesi in cui una di queste variabili corrisponda ad un fattore vietato, la decisione assunta dall’algoritmo sarà di conseguenza discriminatoria.
L’esempio più noto in questo senso è quello dell’azienda americana che, utilizzando l’algoritmo che identificava una serie di caratteri correlati al genere maschile o femminile del candidato, li utilizzava come elementi della decisione di assunzione o meno. È evidente che siamo dinnanzi a forme di discriminazione rientranti nel concetto giuridico di discriminazione indiretta, già largamente noti alla giurisprudenza di merito (Trib. Bologna 31 dicembre 2020, in RIDL 2021 n. 2 II, 175 e Trib. Palermo, ordinanza 3 aprile 2023). Sempre a mero titolo esemplificativo si pensi al caso affrontato dal Tribunale di Palermo con la sentenza del 17 novembre 2023 in cui la presunta discriminazione religiosa subita da alcuni lavoratori riguardava l’assegnazione dei turni basata su un sistema premiale fondato sulle "ore ad alta domanda". Tale criterio, in apparenza imparziale, favoriva i riders che potevano lavorare durante specifici slot temporali, tipicamente coincidenti con il fine settimana. Tuttavia, questa impostazione si è rivelata penalizzante per coloro che, per motivi religiosi, non potevano svolgere attività lavorativa in determinati giorni: gli islamici e gli avventisti il venerdì, gli ebrei il sabato e alcuni cristiani la domenica. Il Tribunale ha accertato la discriminazione, sebbene non diretta, nei confronti di questi gruppi religiosi, evidenziando come il sistema adottato fosse “cieco” rispetto alla diversità delle confessioni religiose. In particolare, è stato sottolineato che, mentre alcuni lavoratori potevano teoricamente conciliare la loro attività con i precetti del proprio culto, gli appartenenti ad alcune confessioni, come gli ebrei, avevano un accesso significativamente ridotto alle "ore ad alta domanda", riducendo le loro opportunità di ottenere punteggi eccellenti e, di conseguenza, vantaggi nel sistema premiale. Il Tribunale ha chiarito che una tale discriminazione non deriva da un’intenzionalità diretta della società, bensì dall’adozione di un sistema che, nella sua apparente neutralità, non ha tenuto conto delle differenze religiose e culturali. La mancata previsione di correttivi organizzativi, come la giustificazione delle esigenze aziendali o la possibilità di compensare i lavoratori penalizzati, ha accentuato l’effetto discriminatorio. Il principio di parità di trattamento, ha ribadito il Tribunale, impone non solo di evitare disparità palesi, ma anche di vigilare affinché i criteri adottati non comportino effetti pregiudizievoli per determinate categorie di persone. |
Dal punto di vista normativo non può essere omesso il riferimento a quanto previsto dall’AI Act con riferimento all’utilizzo dell’AI nei settori ad “alto rischio”.
Sotto questo profilo, il legislatore europeo è ben consapevole del rischio connesso all’utilizzo della IA in ambito giuslavoristico, ed ha previsto che detti sistemi siano formati e testati con un compendio di dati che siano pertinenti, rappresentativi, verificati, inclusivi e completi.
Il tutto per ridurre al minimo il rischio della discriminazione e garantire che questi possano essere affrontati attraverso individuazione, correzione e altre misure di mitigazione del rischio.
Certo, ci si potrebbe chiedere se la gestione umana e l’intelligenza naturale possano generare forme di discriminazione pari se non maggiori di quelle che possono derivare dall’utilizzo dell’IA; si potrebbe, cioè, osservare che, per quanto vi siano possibilità discriminatorie nelle decisioni automatizzate, allo stesso modo vi è la medesima possibilità di discriminazioni che siano frutto dell’intervento umano. Anche in questo caso potendosi configurare discriminazioni dirette e volute, sia indirette e inconsapevoli.
Ma a ben guardare, la maggiore “pericolosità” della macchina algoritmica sta nella mole sterminata di dati acquisibili ed elaborabili per produrre decisioni, o progetti di decisioni; e conseguentemente, nella difficoltà per l’intelligenza naturale di risalire dalla decisione con effetti discriminatori, al criterio discriminatorio che l’ha provocata.
La soluzione di questa potenziale dicotomia fra decisioni umane e decisioni automatizzate non è la polarizzazione dei fautori dell’uno e dell’altra ma - in linea di continuità con quanto alla base della legislazione comunitaria - l’integrazione dei due approcci in cui all’intelligenza è affidato quel ruolo di controllo e verifica.
Il settore del recruiting, del talent acquisition, della ricerca e selezione delle risorse umane, del job placement, costituisce un esempio esemplare di come l’IA possa rappresentare non più un’opportunità, ma una realtà che consente analisi e tempi di elaborazione non conosciuti in passato, a condizione che operi sotto il controllo, e si direbbe la “sovranità” decisionale, di un’intelligenza naturale.
Copyright © - Riproduzione riservata
Per accedere a tutti i contenuti senza limiti abbonati a IPSOA Quotidiano Premium 1 anno € 118,90 (€ 9,90 al mese) Acquista Primi 3 mesi € 19,90 poi € 35,90 ogni 3 mesi Acquista Sei già abbonato ? Accedi