• Home
  • News
  • Ddl intelligenza artificiale: i professionisti trovano l’assistente

Ddl intelligenza artificiale: i professionisti trovano l’assistente

L’uso dell’intelligenza artificiale ha effetti sulla professione. L’IA cambierà la valutazione della responsabilità professionale, il calcolo dei compensi, le condizioni e i premi delle polizze assicurative dei rischi professionali. Quali sono le direttrici su cui si muovono le disposizioni dedicate alle professioni intellettuali dal disegno di legge sull’intelligenza artificiale, approvato in prima lettura dal Senato il 20 marzo 2025?

Il robot entra negli studi professionali, ma è (dovrebbe essere) sotto costante tutoraggio umano. L’intelligenza artificiale (IA) viene (apparentemente) limitata al ruolo di assistente dei professionisti, anche se sta a questi ultimi mantenere le distanze osservando una prudente deontologia tecnologica.

In parallelo, agli ordini professionali è richiesta non solo la pianificazione di attività formative, atte ad allineare le professioni ai livelli richiesti dalla automatizzazione estrema dei servizi, ma è anche assegnata la più pesante incombenza di colmare i vuoti aperti da norme, che non brillano per perspicuità e anzi si palesano nella loro lacunosità.

Usare l’IA, inoltre, cambierà la valutazione della responsabilità professionale, il calcolo dei compensi (equi e no) e condizioni e premi delle polizze assicurative dei rischi professionali. I robot sono, infine, l’apripista di nuove figure professionali (dai professionisti della gestione dei dati a quelli dell’addestramento dell’IA, dagli esperti di IA etica a quelli della cybersicurezza applicata ai sistemi di IA, e così via). Sono queste le direttrici su cui si muovono le disposizioni dedicate alle professioni intellettuali dal disegno di legge in materia di intelligenza artificiale, approvato in prima lettura dal Senato il 20 marzo 2025, il quale detta un nutrito numero di articoli alle professioni forensi.

Che la barra del timone rimanga in mano ai professionisti, peraltro, è un obiettivo che rischia di essere mancato: si consideri con attenzione il fatto che a rischiare un netto ridimensionamento, a fronte dell’avvento dell’IA, sono proprio le professioni intellettuali, nelle quali vi è prevalenza dell’attività cognitiva, elaborativa e decisionale, un tempo appannaggio esclusivo dell’essere umano.

Per cosa si deve usare l’intelligenza artificiale nell’attività professionale

In ogni caso, l’articolo 13, comma 1, del ddl in esame proclama che l’utilizzo di sistemi di intelligenza artificiale nelle professioni intellettuali è finalizzato al solo esercizio delle attività strumentali e di supporto all’attività professionale e con prevalenza del lavoro intellettuale oggetto della prestazione d’opera.

Si tratta di petizioni di principio, che evidenziano il timore del contrario.

Che cosa si intende per attività strumentali e di supporto?

La norma non definisce cosa di debba intendere per “attività strumentali e di supporto” e non dà nemmeno parametri per la misurazione del lavoro intellettuale. Anzi, proprio partendo dalla coda del comma 1 è evidente lo strabismo legislativo, che non riesce a cogliere che i robot, essendo (seppur artificialmente) intelligenti, svolgono per definizione lavoro intellettuale. La frase, dunque, oltre agli errori di valutazione, risente di genericità e di intrinseca debolezza e, pertanto, è del tutto inespressiva di qualsivoglia precetto. A questo punto tocca al mondo delle professioni e agli organismi rappresentativi metterci una pezza. Vanno, infatti, assolutamente chiariti i concetti di “strumentalità” e di “supporto”. Ciò soprattutto per alcune professioni nelle quali il prodotto finale è conseguenza dell’attività a monte.

Esemplificando, un parere pro veritate di un avvocato presuppone l’analisi di fatto, la raccolta delle fonti, la verifica della giurisprudenza e della dottrina, l’enucleazione della/e regola/e applicabile/i al caso concreto, la sussunzione del caso concreto al fatto descritto dalla regola astratta, l’indicazione - in ipotesi di regole ambivalenti/contraddittorie (ad esempio norme di complessa interpretazione, giurisprudenza difforme o in disaccordo con la dottrina) - della soluzione preferibile e l’illustrazione dei parametri giustificativi della opzione privilegiata, la formulazione finale dell’atto.

A fronte di queste attività (elencate, tra l’altro non in maniera esaustiva), il quesito è quali possano considerarsi “strumentali e di supporto”: basta far pesare di più una sentenza o materialmente trovare o non trovare un precedente della Cassazione e il parere cambia radicalmente. La stessa ricerca di giurisprudenza, che potrebbe apparire un’attività di supporto, diventa attività determinante del risultato finale.

Qual è il ruolo degli ordini professionali nel ddl sull’IA

Spetta, dunque, agli organi rappresentativi delle professioni censire problemi, come quello illustrato, e dare una soluzione, che, inevitabilmente non sarà la soluzione esatta al 100%, ma sarà quella, sì approssimata, ma comunque accettata dalla collettività dei professionisti e socialmente ratificata dalla comunità dei cittadini e delle imprese.

Se gli organi rappresentativi delle professioni mancassero in questa missione, ciascun professionista sarebbe in balia delle decisioni di un giudice chiamato a pronunciarsi sulla sua responsabilità professionale sia in sede disciplinare sia in sede di eventuali giudici per responsabilità per i danni arrecati dal robot, usato da professionista, che ha esorbitato dai limiti ancillari in cui sarebbe posizionato.

Tra l’altro il professionista non potrà nascondersi dietro un dito: il secondo comma dell’articolo 13 del ddl in commento impone al professionista precisi adempimenti in nome della trasparenza, ovvero comunicare al soggetto destinatario della prestazione intellettuale con linguaggio chiaro, semplice ed esaustivo le informazioni relative ai sistemi di intelligenza artificiale utilizzati e ciò per “assicurare il rapporto fiduciario tra professionista e cliente”.

Anche su questo profilo gli organismi rappresentativi delle professioni potranno/dovranno dedicarsi alla stesura di modelli di “informative”.

La necessaria disclosure sui sistemi automatizzati aprirà inevitabilmente la strada al controllo sul “quanto” e sul “come” il robot ci ha messo del suo nella prestazione resa.

A ben vedere, ciò comporta anche una riflessione sulle ricadute di tutto ciò sulle polizze assicurative del rischio professionale, le quali saranno oggetto di significative revisioni sia nelle coperture sia nei premi.

Peraltro, il descritto movimento porta alla ovvia considerazione che ciascun professionista deve diventare un consapevole e oculato deployer dei sistemi di IA che usa e ciò qualunque sia il grado di rischio abbinato dal regolamento UE n. 2024/1689 sull’IA e, quindi, anche per quello di rischio minimo.

Non a caso una delega, conferita al Governo in materia di IA dall’articolo 24 del ddl in esame, inserisce (alla lettera f) del comma 2) tra i criteri direttivi la previsione, da parte degli ordini professionali e delle associazioni di categoria maggiormente rappresentative, nonché da parte delle forme aggregative delle associazioni delle professioni “senza albo” (articolo 3 della legge 4/2013), di percorsi di alfabetizzazione e formazione, per i professionisti e per gli operatori dello specifico settore, all’uso dei sistemi di intelligenza artificiale.

Altrettanto non a caso, la citata delega dovrà occuparsi di disciplinare il riconoscimento di un equo compenso modulabile sulla base delle responsabilità e dei rischi connessi al l’uso dei sistemi di intelligenza artificiale.

Pertanto, il professionista deve sapere gestire l’IA che usa e sarà pagato e sarà responsabile per i danni professionali sulla base della quantità e della modalità di uso dei sistemi automatizzati.

Fin qui l’esposizione dei profili della disciplina del ddl sull’IA trasversale a tutte le professioni.

Quali sono le disposizioni specifiche

Alcune disposizioni sono, invece, di diretto interesse delle professioni forensi: l’articolo 15 detta le condizioni di utilizzo dell’IA da parte di procure e tribunali (il magistrato, non il robot, deve avere l’ultima parola); l’articolo 17 riserva al tribunale le cause che hanno ad oggetto il funzionamento di un sistema di intelligenza artificiale; l’articolo 24, comma 2, lettera h), assegna la delega al governo per previsione di un’apposita disciplina per l’utilizzo di sistemi di intelligenza artificiale per l’attività di polizia; l’articolo 24, comma 5, delega il governo ad adeguare il sistema sanzionatorio penale e quello amministrativo delle imprese, le responsabilità anche civili nell’utilizzo di sistemi di intelligenza artificiale nelle indagini preliminari, nel rispetto delle garanzie inerenti al diritto di difesa.

Da ultimo, va sottolineata anche un’altra sfaccettatura del rapporto tra IA e professioni e cioè all’accesso nel mercato dell’IA di professioni tradizionali (giuristi informatici, esperti privacy, esperti umanisti per l’IA etica) e l’apertura del mercato di nuove professioni (addetti e responsabili dell’ufficio IA, dell’ufficio “supervisione umana”, di gestione dei dati, dell’ ufficio addestramento IA e della sicurezza, change manager, AI engineer, AI architect , deep learning engineer, machine learning engineer, data engineer, data scientist, prompt engineer, esperto in cybersicurezza applicata all’IA, AI ethicist).

Copyright © - Riproduzione riservata

Per accedere a tutti i contenuti senza limiti abbonati a IPSOA Quotidiano Premium 1 anno € 118,90 (€ 9,90 al mese) Acquista Primi 3 mesi € 19,90 poi € 35,90 ogni 3 mesi Acquista Sei già abbonato ? Accedi

Fonte: https://www.ipsoa.it/documents/quotidiano/2025/03/27/ddl-intelligenza-artificiale-professionisti-trovano-assistente

Iscriviti alla Newsletter




È necessario aggiornare il browser

Il tuo browser non è supportato, esegui l'aggiornamento.

Di seguito i link ai browser supportati

Se persistono delle difficoltà, contatta l'Amministratore di questo sito.

digital agency greenbubble