News
Archivio newsRegolamento UE sull’intelligenza artificiale: come tutelare la privacy
L’Unione europea va verso la proibizione dell’uso dell’intelligenza artificiale per il riconoscimento facciale e l’identificazione biometrica, la manipolazione comportamentale, la polizia predittiva, il riconoscimento delle emozioni. Sono questi alcuni dei paletti assoluti posti all’IA dal Parlamento Ue che, il 14 giugno 2023, ha adottato la sua posizione negoziale sulla legge sull'intelligenza artificiale. La proposta di regolamento suddivide i sistemi di intelligenza artificiale in base al livello di rischio. Al grado di rischio raggiunto si associa una proibizione assoluta, una valutazione di impatto o altri obblighi e adempimenti. Nella proposta, inoltre, le IA generative come Chat GPT devono rispettare requisiti di trasparenza. Quali sono i sistemi di intelligenza artificiale che vengono individuati dal regolamento?
Il Parlamento europeo propone di impedire l’uso dell’intelligenza artificiale (IA) per il riconoscimento facciale e l’identificazione biometrica, la manipolazione comportamentale, la polizia predittiva, il riconoscimento delle emozioni. Sono questi alcuni dei paletti assoluti posti all’IA dal Parlamento Ue che, il 14 giugno 2023, ha adottato la sua posizione negoziale sul regolamento sull'intelligenza artificiale (IA) con 499 voti a favore, 28 contrari e 93 astensioni. Ora partono i colloqui con i governi UE in Consiglio per arrivare alla stesura finale del regolamento. L’obiettivo è chiudere l’iter a fine 2023 e avere un regolamento, che articolerà la sua disciplina secondo un approccio basato sui rischi derivanti dall’utilizzo di sistemi di IA. Per le ipotesi ad alto rischio è previsto l’obbligo di una valutazione di impatto sui diritti fondamentali che si affiancherà alla valutazione di impatto prevista dalle disposizioni sulla protezione dei dati. Si traccia di un approccio di regolamentazione tradizionale, relativamente facile da scrivere in un testo astratto: nessuno, ad oggi, peraltro può stimare se tutto ciò sarà in grado di delimitare un fenomeno non del tutto conosciuto, e forse neppure conoscibile nella sua integralità, tanto che non mancano sia prognosi apocalittiche sia disinvolte minimizzazioni. Nell’attesa di verificare quale sarà l’atto normativo a tinte europee, unico per il momento nel panorama planetario, vediamo alcune caratteristiche della disciplina dell’IA, che comunque è già un fenomeno presente nell’attività produttiva e dei servizi. Quali sono gli obiettivi del regolamento sull’IA I sistemi di intelligenza artificiale utilizzati nell'UE devono essere sicuri, trasparenti, tracciabili, non discriminatori e rispettosi della privacy e dell'ambiente. I sistemi di intelligenza artificiale, inoltre, devono essere supervisionati da persone, anziché dalla sola automazione, per evitare conseguenze dannose. Come classificare i sistemi di intelligenza artificiale in base al rischio La filosofia di fondo è l’approccio basato sul rischio. I sistemi di intelligenza artificiale utilizzabili in diverse applicazioni devono essere analizzati e classificati in base al rischio che rappresentano per gli utenti. I diversi livelli di rischio comporteranno a seconda dei casi il divieto di ricorso all’IA oppure un maggiore o minore numero di obblighi e adempimenti per fornitori e utenti. I sistemi di intelligenza artificiale, considerati a rischio inaccettabile, e pertanto vietati, quando costituiscono una minaccia per le persone, comprendono i seguenti casi: 1) manipolazione comportamentale cognitiva di persone o gruppi vulnerabili specifici: ad esempio giocattoli attivati vocalmente che incoraggiano comportamenti pericolosi nei bambini; 2) classificazione sociale: classificazione delle persone in base al comportamento, al livello socioeconomico, alle caratteristiche personali; 3) sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale. Il Parlamento UE ha dettagliato l’elenco dei casi di rischio inaccettabile inserendo divieti sugli usi intrusivi e discriminatori dell'IA, quali: 1) l'uso di sistemi di identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico; 2) l'uso di sistemi di identificazione biometrica remota "a posteriori" in spazi accessibili al pubblico, se non previa autorizzazione giudiziaria e strettamente necessario per investigare uno specifico reato grave; 3) i sistemi di categorizzazione biometrica basati su caratteristiche sensibili (ad esempio genere, razza, etnia, cittadinanza, religione, orientamento politico); 4) i sistemi di polizia predittiva (basati su profilazione, ubicazione o comportamenti criminali passati); 5) i sistemi di riconoscimento delle emozioni utilizzati dalle forze dell'ordine, nella gestione delle frontiere, nel luogo di lavoro e negli istituti d'istruzione; 6) l'estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy).
Nonostante questo, stando ai resoconti ufficiali disponibili, alcune eccezioni potrebbero tuttavia essere ammesse: per esempio, i sistemi di identificazione biometrica a distanza “post”, in cui l'identificazione avviene dopo un significativo ritardo, saranno consentiti per perseguire reati gravi e solo previa autorizzazione del tribunale. |