Dopo un negoziato fiume di oltre 36 ore, le istituzioni Ue hanno raggiunto venerdì sera un accordo sull’AI Act, la legge europea sull’intelligenza artificiale. Si tratta del primo quadro normativo sui sistemi di intelligenza artificiale nel mondo. Obiettivo della normativa è garantire che l’IA protegga i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale, stimolando al tempo stesso l’innovazione e rendendo in teoria l’Europa leader nel settore esploso con la diffusione di chatbot come ChatGPT. Il dossier è centrale anche per il governo di Giorgia Meloni: l’IA sarà uno dei temi del G7 a presidenza italiana. Ma il via libera è arrivato al prezzo di compromessi al ribasso su aspetti cruciali come l’utilizzo di tecnologie per il riconoscimento facciale a distanza da parte degli Stati se lo ritengono giustificato per motivi di sicurezza nazionale.
“Un momento storico” ha esultato Ursula von der Leyen, celebrando uno dei cavalli di battaglia del suo mandato alla Commissione europea che ha avanzato la proposta nel 2021. La normativa darà “un contributo sostanziale allo sviluppo di regole e principi globali per un’IA incentrata sull’uomo”, ha rivendicato la numero uno dell’esecutivo comunitario. È il cosiddetto ‘effetto Bruxelles’, con cui l’Ue spera di orientare le norme sull’IA a livello mondiale, come accaduto con altri dossier. L’intesa politica ora dovrà incassare l’approvazione finale degli Stati membri, oltre che del Parlamento europeo. Non tutti però festeggiano: per Amnesty “la decisione dell’UE di non vietare la sorveglianza pubblica di massa costituisce un devastante precedente globale. Le tre istituzioni dell’UE hanno dato il via libera alla sorveglianza digitale distopica nei 27 Stati membri dell’UE”. E sottolinea che il Parlamento europeo ha ceduto “alle pressioni degli Stati membri affinché facesse un passo indietro rispetto alla sua posizione originale che offriva forti protezioni, compreso un divieto incondizionato del riconoscimento facciale dal vivo”.
Nocciolo duro della legge è l’adozione di un approccio basato sul rischio. In altre parole, è prevista una serie di obblighi a fornitori e sviluppatori di sistemi di IA a seconda dei diversi livelli di rischio identificati. Uno dei capitoli più importanti, su cui il negoziato si è incagliato per ore, è quello delle pratiche di IA vietate perché comportano un rischio inaccettabile per la sicurezza e i diritti fondamentali. Non ci sarà però un divieto assoluto dei sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale: l’uso sarà “limitato” ma consentito sulla base di necessità di sicurezza nazionale.
Il capodelegazione del Pd al Parlamento Europeo e relatore dell’AI Act Brando Benifei sostiene che meglio di così non si poteva fare: “Alcuni governi compreso quello italiano avrebbero voluto più mano libera nel mettere sotto controllo i cittadini e fare profilazione, ma hanno trovato un muro invalicabile da parte nostra a tutela delle libertà”, ha rivendicato. Ma, oltre ad Amnesty, anche l’associazione europea dei consumatori (Beuc) è critica e lamenta “l’ampiezza dei rischi da cui i consumatori saranno impropriamente protetti in futuro”.
Tra i punti controversi, anche quello sui modelli di fondazione come GPT-4, alla base di ChatGPT. L’accordo prevede obblighi più stringenti per i modelli ad alto impatto con rischio sistemico. Norme che Berlino, Parigi e in parte Roma avrebbero voluto diluire in codici di condotta, temendo che gli oneri imposti soffocheranno l’innovazione in Ue. “Non siamo ancora convinti che questo sia il modo giusto per garantire che l’Europa rimanga competitiva nell’IA. L’innovazione si farà comunque altrove” ha commentato a caldo l’eurodeputato del Ppe, Axel Voss. “Qui abbiamo perso la nostra occasione”.