Il mondo FQ

Regolare l’intelligenza artificiale sì ma senza irrigidirne i confini: cosa non va nel nuovo ddl

Un avvocato che utilizza l’IA per redigere una prima bozza e poi interviene manualmente è in regola? In questa fase sarebbe opportuno un quadro operativo di riferimento
Commenti

di Agostino Imperatore*

“L’IA non è solo tecnologia, è il futuro della nostra società: regolarla bene significa costruirlo bene”, ha dichiarato qualche giorno fa Thierry Breton, Commissario europeo per il Mercato Interno. Parole che sottolineano l’urgenza di un intervento normativo capace di bilanciare l’innovazione tecnologica con le garanzie dello Stato di diritto. Regolamentare l’intelligenza artificiale è una sfida cruciale per il presente e soprattutto per il futuro. Se da un lato l’Europa avanza con l’AI Act, l’Italia ha mosso un passo significativo – ma non privo di contraddizioni – con il disegno di legge n. 2316, approvato dal Senato lo scorso 20 marzo. Il testo, ora atteso alla Camera, intende costruire una cornice nazionale per l’adozione dell’IA, ma presenta alcuni elementi di fragilità che meritano attenzione.

Sulla carta, il ddl aderisce ai principi europei: centralità dell’essere umano, trasparenza, sicurezza. Nella sostanza, però, rischia di generare un sistema frammentato. La governance viene affidata a più soggetti – l’Agenzia per l’Italia Digitale (AgID), l’Agenzia per la Cybersicurezza Nazionale (ACN), il Garante per la protezione dei dati personali, la Banca d’Italia, l’Istituto per la vigilanza sulle assicurazioni (IVASS), la Commissione nazionale per le società e la borsa (CONSOB) – con un coordinamento previsto tramite un Comitato interistituzionale. L’AI Act prevede un unico punto di contatto per Stato membro. L’Italia, al contrario, ne ipotizza quantomeno due, con possibili rallentamenti e incertezze applicative, soprattutto in ambiti critici come sanità, lavoro o giustizia.

Altro nodo rilevante è l’articolo 13, che disciplina l’uso dell’IA nelle professioni intellettuali. Il principio della “prevalenza del lavoro umano” è condivisibile, ma resta privo di definizione tecnica. Un avvocato che utilizza l’IA per redigere una prima bozza e poi interviene manualmente è in regola? Un architetto che genera alternative progettuali tramite IA, per poi rifinirle autonomamente, viola la norma?

In una fase così iniziale della regolazione dell’intelligenza artificiale, non è utile irrigidire i confini con formule numeriche, ma sarebbe opportuno introdurre un quadro operativo di riferimento: linee guida, standard deontologici, protocolli settoriali che orientino l’uso responsabile dell’IA nelle professioni. Un’opzione concreta potrebbe essere la definizione, da parte degli ordini professionali, di checklist operative o modelli di dichiarazione sull’uso dell’IA, da allegare agli atti o alle prestazioni, con un ruolo attivo degli organismi di vigilanza deontologica nell’attività di monitoraggio.

Su questo sfondo si innesta anche il tema della trasparenza. Il ddl insiste sulla necessità di garantire che l’uso dell’intelligenza artificiale sia conoscibile e tracciabile, specie nella pubblica amministrazione. Un principio condivisibile, che però – almeno per ora – non si accompagna a strumenti concreti. L’articolo 14 parla di “conoscibilità del funzionamento”, ma non chiarisce se questo debba tradursi in accesso al codice, ai dati o alla logica decisionale. In mancanza di linee guida tecniche o format standard, il rischio è che il principio resti inattuato.

Un altro ambito in cui i principi generali rischiano di rimanere privi di strumenti operativi è quello del trattamento dei dati personali in ambito sanitario. L’articolo 8 consente, in alcuni casi, l’uso di dati pseudonimizzati anche senza consenso, per finalità di ricerca. Una scelta che guarda alla medicina predittiva e all’interesse pubblico, ma che necessita di una regolazione più dettagliata, per evitare contrasti con il Gdpr e garantire pienamente i diritti dell’interessato. Per questo, sarebbe utile introdurre linee guida vincolanti che chiariscano le condizioni e i limiti del trattamento, responsabilizzando gli enti coinvolti e assicurando coerenza con le finalità di interesse pubblico dichiarate.

Il ddl rappresenta un punto di partenza che necessita di consolidamento. Un testo che ambisce a regolare un cambiamento epocale non può limitarsi all’enunciazione dei principi, ma deve trasformarli in regole applicabili e stabili. Perché non basta inseguire il cambiamento: servono strumenti capaci di interpretarlo e guidarlo.

*Avvocato

I commenti a questo articolo sono attualmente chiusi.