Il CEO di Google Sundar Pichai, in un articolo apparso sul Financial Times, ha ribadito la necessità di stabilire regole comuni e condivise globalmente riguardo l'uso e lo sviluppo dell'intelligenza artificiale, perché si tratta di un settore troppo delicato per lasciarne lo sviluppo unicamente in mano alle aziende.
“L’intelligenza artificiale va regolamentata”. L’affermazione arriva nientemeno che dal CEO di Google Sundar Pichai, in un editoriale pubblicato sul Financial Times, che ha voluto così attirare l’attenzione di aziende e governi su un aspetto critico della questione: non possono essere le aziende a decidere come vanno sviluppate le nuove tecnologie, soprattutto se si tratta di argomenti complessi che tirano in ballo anche aspetti giuridici, filosofici ed etici, come nel caso delle IA.
“Spetta anche a noi accertarci che la tecnologia venga sfruttata per il bene collettivo e che sia disponibile per tutti”, ha proseguito l’amministratore delegato nell’articolo, invitando dunque i legislatori di tutto il mondo ad avviare i lavori per una definizione di linee guida condivise e standard di utilizzo globali.
Pichai invoca dunque lo sviluppo di un “quadro normativo ragionevole che adotti un approccio proporzionato in grado di bilanciare i potenziali danni, soprattutto nelle aree ad alto rischio, e le opportunità sociali delle nuove tecnologie” e fa riferimento al GDPR europeo come esempio di regolazione di base efficace nei confronti del Web, una delle tante innovazioni tecnologiche che, diffusesi in assenza di regolamentazioni chiare, hanno portato a diversi problemi, come il proliferare della disinformazione.
“Per alcuni usi dell’IA, come possono essere i dispositivi medici regolamentati, inclusi i cardiofrequenzimetri assistiti dall’IA, i quadri normativi esistenti rappresentano dei buoni punti di partenza. Mentre per i settori più recenti come i veicoli a guida autonoma, i governi dovranno stabilire nuove regole appropriate che tengano conto di tutti i costi e i benefici rilevanti“, ha poi concluso Pichai, che ha ricordato come i principi che restano sulla carta sono comunque inutili e che serviranno quindi anche sanzioni proporzionate chi infrangerà le regole. Per questo, diventa al contempo necessario la creazione di organi creati ad-hoc dalle istituzioni con il compito di controllare l’utilizzo dell’intelligenza artificiale.