di Gianpiero
L’Italia, la Francia e la Germania mostrano resistenza verso alcuni elementi dell’AI Act, la legislazione europea sull’Intelligenza Artificiale. Questi tre importanti paesi dell’UE si oppongono all’inclusione dei modelli fondativi nell’AI Act. I modelli fondativi sono gli algoritmi di base su cui sono implementati gli strumenti come ChatGPT.
In un momento decisivo, questi tre stati propongono di escludere i modelli fondativi dalla regolamentazione, limitando le norme alle applicazioni IA specifiche. Ad esempio, sarebbe regolato ChatGPT, ma non il suo modello di base GPT4. Tale proposta lascerebbe l’onere di controllare gli abusi sull’addestramento e sul funzionamento dei modelli fondativi alle aziende produttrici.
È palese che questo tipo di scelta lascia aperto il problema del conflitto di interesse: chi stabilisce le regole è il produttore. Gli esperti evidenziano che i codici di condotta volontari sono insufficienti, poiché le aziende tendono a privilegiare i profitti sulla sicurezza pubblica e sulla regolamentazione etica.
Roma, Parigi e Berlino si oppongono anche all’idea di sanzioni per violazioni dell’AI Act, suggerendo penalità solo per “violazioni sistematiche dei codici di condotta”. Questo potrebbe indebolire fortemente l’efficacia dell’AI Act. La resistenza di questi paesi ritarda l’approvazione dell’AI Act. Questa decisione potrebbe influenzare le prossime elezioni del Parlamento europeo, rischiando di lasciare un vuoto nella tutela dei diritti dei cittadini nei confronti della minaccia relativa all’uso improprio dell’IA.
Se portata avanti fino in fondo, questa contestazione potrebbe compromettere l’intero pacchetto legislativo sull’IA. Se i tre paesi mantenessero la loro posizione, le negoziazioni con la Commissione e il Parlamento potrebbero fallire. Tutto questo porterebbe a rinviare la discussione sulla legislazione a dopo le elezioni europee. Chi volesse approfondire può leggere la lettera aperta pubblicata dal gruppo di esperti dell’Atomium – European Institute for Science, Media and Democracy.
Pensate che questa sia una buona partenza per realizzare un’Intelligenza artificiale etica e responsabile?