• Home
  • News
  • Regolamento UE sull’intelligenza artificiale: come tutelare la privacy

Regolamento UE sull’intelligenza artificiale: come tutelare la privacy

L’Unione europea va verso la proibizione dell’uso dell’intelligenza artificiale per il riconoscimento facciale e l’identificazione biometrica, la manipolazione comportamentale, la polizia predittiva, il riconoscimento delle emozioni. Sono questi alcuni dei paletti assoluti posti all’IA dal Parlamento Ue che, il 14 giugno 2023, ha adottato la sua posizione negoziale sulla legge sull'intelligenza artificiale. La proposta di regolamento suddivide i sistemi di intelligenza artificiale in base al livello di rischio. Al grado di rischio raggiunto si associa una proibizione assoluta, una valutazione di impatto o altri obblighi e adempimenti. Nella proposta, inoltre, le IA generative come Chat GPT devono rispettare requisiti di trasparenza. Quali sono i sistemi di intelligenza artificiale che vengono individuati dal regolamento?

Il Parlamento europeo propone di impedire l’uso dell’intelligenza artificiale (IA) per il riconoscimento facciale e l’identificazione biometrica, la manipolazione comportamentale, la polizia predittiva, il riconoscimento delle emozioni. Sono questi alcuni dei paletti assoluti posti all’IA dal Parlamento Ue che, il 14 giugno 2023, ha adottato la sua posizione negoziale sul regolamento sull'intelligenza artificiale (IA) con 499 voti a favore, 28 contrari e 93 astensioni. Ora partono i colloqui con i governi UE in Consiglio per arrivare alla stesura finale del regolamento. L’obiettivo è chiudere l’iter a fine 2023 e avere un regolamento, che articolerà la sua disciplina secondo un approccio basato sui rischi derivanti dall’utilizzo di sistemi di IA. Per le ipotesi ad alto rischio è previsto l’obbligo di una valutazione di impatto sui diritti fondamentali che si affiancherà alla valutazione di impatto prevista dalle disposizioni sulla protezione dei dati. Si traccia di un approccio di regolamentazione tradizionale, relativamente facile da scrivere in un testo astratto: nessuno, ad oggi, peraltro può stimare se tutto ciò sarà in grado di delimitare un fenomeno non del tutto conosciuto, e forse neppure conoscibile nella sua integralità, tanto che non mancano sia prognosi apocalittiche sia disinvolte minimizzazioni. Nell’attesa di verificare quale sarà l’atto normativo a tinte europee, unico per il momento nel panorama planetario, vediamo alcune caratteristiche della disciplina dell’IA, che comunque è già un fenomeno presente nell’attività produttiva e dei servizi. Quali sono gli obiettivi del regolamento sull’IA I sistemi di intelligenza artificiale utilizzati nell'UE devono essere sicuri, trasparenti, tracciabili, non discriminatori e rispettosi della privacy e dell'ambiente. I sistemi di intelligenza artificiale, inoltre, devono essere supervisionati da persone, anziché dalla sola automazione, per evitare conseguenze dannose. Come classificare i sistemi di intelligenza artificiale in base al rischio La filosofia di fondo è l’approccio basato sul rischio. I sistemi di intelligenza artificiale utilizzabili in diverse applicazioni devono essere analizzati e classificati in base al rischio che rappresentano per gli utenti. I diversi livelli di rischio comporteranno a seconda dei casi il divieto di ricorso all’IA oppure un maggiore o minore numero di obblighi e adempimenti per fornitori e utenti. I sistemi di intelligenza artificiale, considerati a rischio inaccettabile, e pertanto vietati, quando costituiscono una minaccia per le persone, comprendono i seguenti casi: 1) manipolazione comportamentale cognitiva di persone o gruppi vulnerabili specifici: ad esempio giocattoli attivati vocalmente che incoraggiano comportamenti pericolosi nei bambini; 2) classificazione sociale: classificazione delle persone in base al comportamento, al livello socioeconomico, alle caratteristiche personali; 3) sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale. Il Parlamento UE ha dettagliato l’elenco dei casi di rischio inaccettabile inserendo divieti sugli usi intrusivi e discriminatori dell'IA, quali: 1) l'uso di sistemi di identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico; 2) l'uso di sistemi di identificazione biometrica remota "a posteriori" in spazi accessibili al pubblico, se non previa autorizzazione giudiziaria e strettamente necessario per investigare uno specifico reato grave; 3) i sistemi di categorizzazione biometrica basati su caratteristiche sensibili (ad esempio genere, razza, etnia, cittadinanza, religione, orientamento politico); 4) i sistemi di polizia predittiva (basati su profilazione, ubicazione o comportamenti criminali passati); 5) i sistemi di riconoscimento delle emozioni utilizzati dalle forze dell'ordine, nella gestione delle frontiere, nel luogo di lavoro e negli istituti d'istruzione; 6) l'estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy).

Nonostante questo, stando ai resoconti ufficiali disponibili, alcune eccezioni potrebbero tuttavia essere ammesse: per esempio, i sistemi di identificazione biometrica a distanza “post”, in cui l'identificazione avviene dopo un significativo ritardo, saranno consentiti per perseguire reati gravi e solo previa autorizzazione del tribunale.
Un secondo livello comprende i sistemi di intelligenza artificiale che influiscono negativamente sulla sicurezza o sui diritti fondamentali saranno considerati ad alto rischio e che saranno suddivisi in due categorie: 1) i sistemi di intelligenza artificiale utilizzati in prodotti soggetti alla direttiva dell'UE sulla sicurezza generale dei prodotti (direttiva 2001/95/CE). Questi includono giocattoli, aviazione, automobili, dispositivi medici e ascensori. 2) i sistemi di intelligenza artificiale che rientrano in otto aree specifiche dovranno essere registrati in un database dell'UE: a) identificazione e categorizzazione biometrica di persone naturali, b) gestione e funzionamento di infrastrutture critiche, c) istruzione e formazione professionale, d) occupazione, gestione dei lavoratori e accesso all'autoimpiego, e) accesso e fruizione di servizi privati essenziali e servizi pubblici e vantaggi, f) forze dell'ordine, g) gestione delle migrazioni, asilo e controllo delle frontiere, h) assistenza nell'interpretazione e applicazione legale della legge. Tutti i sistemi di intelligenza artificiale ad alto rischio saranno valutati prima di essere messi sul mercato e durante tutto il loro ciclo di vita. Si tratta di una valutazione d’impatto sui diritti fondamentali che si affiancherà alla valutazione di impatto privacy (DPIA) prevista dal GDPR (regolamento Ue 2016/679). Stando al testo approvato dal Parlamento Ue la valutazione d'impatto sui diritti fondamentali dovrà essere condotta insieme alla valutazione d'impatto sulla protezione dei dati, la quale sarà pubblicata come addendum. Il Parlamento Ue intende inserire nella classificazione delle applicazioni ad alto rischio includa anche i sistemi di IA che comportano danni significativi per la salute, la sicurezza, i diritti fondamentali delle persone o l'ambiente. Sono stati aggiunti alla lista ad alto rischio i sistemi di intelligenza artificiale utilizzati per influenzare gli elettori e l'esito delle elezioni e i sistemi di raccomandazione utilizzati dalle piattaforme di social media (con oltre 45 milioni di utenti). Infine, sono classificati i sistemi di intelligenza artificiale a rischio limitato, i quali dovranno rispettare requisiti minimi di trasparenza che consentano agli utenti di prendere decisioni informate. Dopo aver interagito con le applicazioni, l'utente potrà decidere se desidera continuare a utilizzarle. Gli utenti devono essere informati quando interagiscono con l'IA. Questo gruppo include i sistemi di intelligenza artificiale che generano o manipolano contenuti di immagini, audio o video (ad esempio deepfake). Quali sono i requisiti di trasparenza dell’IA generativa L'IA generativa, come ChatGPT, dovrà rispettare requisiti di trasparenza: a) rivelare che il contenuto è stato generato da un'intelligenza artificiale, aiutando anche a distinguere le cosiddette immagini deep-fake e da quelle reali; b) progettare il modello in modo da impedire la generazione di contenuti illegali; c) pubblicare riepiloghi dei dati con diritti d'autore utilizzati per l'addestramento. Come stimolare la ricerca e l’innovazione Per stimolare l'innovazione nel campo dell'IA e sostenere le PMI, il Parlamento Ue propone esenzioni per le attività di ricerca e licenze open-source per i componenti dell'IA. Il regolamento futuro dovrà promuovere i cosiddetti spazi di sperimentazione normativa, o ambienti di vita reale, creati dalle autorità pubbliche per testare l'IA prima che venga implementata. Quali sono le tutele per i cittadini Il Parlamento intende rafforzare il diritto dei cittadini di presentare reclami sui sistemi di IA e di ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio con un impatto significativo sui loro diritti fondamentali. Come viene tutelata la privacy A proposito del rapporto con il GDPR, il regolamento sull’IA contiene una clausola generale di salvezza, che obbligherà gli operatori a fare i conti anche con le disposizioni poste direttamente a tutela dei dati personali. Copyright © - Riproduzione riservata

Fonte: https://www.ipsoa.it/documents/quotidiano/2023/06/19/regolamento-ue-intelligenza-artificiale-tutelare-privacy

Iscriviti alla Newsletter




È necessario aggiornare il browser

Il tuo browser non è supportato, esegui l'aggiornamento.

Di seguito i link ai browser supportati

Se persistono delle difficoltà, contatta l'Amministratore di questo sito.

digital agency greenbubble