L’Europa avrebbe trovato l’8 dicembre, nell’ambito del cosiddetto trilogo, un accordo politico per la definizione dell’Artificial intelligence act, il Regolamento destinato a definire le norme relative all’impiego dell’intelligenza artificiale nell’Unione europea. Per “triloghi” s’intendono i negoziati informali cui prendono parte i rappresentanti di Parlamento Europeo, Consiglio e Commissione.
Nel corso di tali negoziati le tre istituzioni concordano orientamenti politici riguardo alle proposte legislative avanzate dalla Commissione. Quanto convenuto in seno ai triloghi viene poi presentato alle plenarie di Consiglio e Parlamento e forma oggetto di dibattito e, poi, eventualmente, attraverso la stesura di un vero e proprio testo giuridico emendato, di adozione. Il veicolo adottato in questo caso dalla Commissione è il regolamento, ovvero un atto che non ha bisogno di nessuna attuazione nei singoli Paesi, come avviene invece per la direttiva: si applica per tutti nello stesso momento e nella stessa maniera.
In questo l’Artificial intelligence act segue la strada della madre di tutte le norme auto-applicantesi in Europa, ovvero il Regolamento generale sulla protezione dei dati, meglio noto come GDPR. Nonostante i “pasdaran” del Bruxelles Effect, ovvero della capacità dell’Europa di emettere regole che siano di esempio per altri contesti, esultino per l’uso del regolamento, va detto che l’utilizzo di un mezzo comune, come è accaduto anche nel settore dell’intelligenza artificiale, appare essere in realtà uno sintomo di sfiducia nei confronti dei singoli Stati, che potrebbero in sede nazionale, qualora la forma della norma fosse una direttiva, fare uno “sgambetto” alle istituzioni comunitarie. Problema che non si è posto negli Stati Uniti, ove il Presidente Biden ha emesso a fine ottobre un Executive order, dopo aver sondato i principali player del settore, senza passare per il Congresso.
Le posizioni molto diverse dei singoli Paesi nel Consiglio Europeo, uno degli organi istituzionali europei coinvolti nel processo di legificazione, sono divenute evidenti nel corso del negoziato politico per giungere ad un accordo comune, che è stato tra i più lunghi (e sofferti) della storia pluridecennale dell’Unione. Dal momento che i negoziati sono – come si diceva – informali, nessun testo giuridico è stato approntato: se ne riparla forse a giugno e in ogni caso le disposizioni dell’AI Act, una volta approvato, entreranno in vigore in maniera progressiva: dopo sei mesi quelle sulle applicazioni proibite, dopo dodici quelle sui sistemi ad alto rischio e sui modelli più potenti, le ultime dopo due anni. Quindi, per vedere dispiegarsi interamente gli effetti dovremo attendere, se tutto va bene, fino alla metà del 2026.
Va ricordato che il prossimo semestre del G7 (che sarà guidato dall’Italia) avrà come tema anche l’impatto dei sistemi di AI sul mercato del lavoro.
Guardando all’impianto generale della norma per come emersa prima del trilogo, l’Europa, nel volersi distinguere a tutti i costi dai paesi che stanno facendo sperimentazioni “sul campo” sull’intelligenza artificiale – come i paesi arabi, la Cina, gli Stati Uniti, la Russia e Israele – sembra aver voluto mettere un cappello generale a fenomeni molto diversi tra di loro, apparendo in realtà in affanno rispetto alle tecnologie più avanzate. La normativa europea è essenzialmente incentrata sui profili di rischio dell’Intelligenza artificiale, lato imprese, stabilendo tutele crescenti a seconda del tipo di intelligenza artificiale. Nulla però viene detto dei diritti dei cittadini in relazione all’intelligenza artificiale, a meno che l’articolato normativo, che ancora non c’è, non stravolga questa impostazione. Si spera che il lavoro di affinamento giuridico sappia dare i propri frutti.
In definitiva, con un approccio rivolto essenzialmente al passato che non appare in grado di alimentare la ricerca e lo sviluppo delle imprese europee, stabilendo paletti più che stimolando la concorrenza rispetto ad altre realtà mondiali. E in proposito a Bruxelles, oltre alle solite lobby che operano da sempre – principalmente quelle del copyright e quelle opposte del digitale – sembra si siano inserite le grandi realtà della consulenza, anche legale. “Big Copyright” in particolare pare aver ottenuto una vittoria significativa, ottenendo che le rigide regole del copyright si applicassero anche alle nascenti novità dell’intelligenza artificiale, soprattutto generativa.
In Italia, appena si è capito che il settore poteva attrarre risorse, è scattata subito la corsa a inseguire uno strapuntino pagato con soldi pubblici, tra burocrati in attesa di ricollocarsi, finito il già ricco mandato pubblico, consulenti e accademici pronti a vendere i propri webinar o la propria analisi del rischio, che nella versione uscita dal trilogo sembra addirittura essere stata rafforzata, ed enti pronti a tutto pur di accaparrarsi i poteri connessi al nuovo quadro comunitario. A perdere (sino ad ora) sembra siano le aziende innovative europee, determinate a fare ricerca sulle nuove tecnologie, e i cittadini, privi di un apparato normativo in grado di proteggere veramente i diritti fondamentali.