“Rischiamo di dar vita a un nuovo colonialismo digitale e cognitivo e non è detto che questo non porti tensioni insopportabili a livello globale”. Per fortuna che Paolo Benanti è “ottimista per contratto”, come dice lui che è frate francescano del Terzo Ordine Regolare (TOR), prima che docente universitario di neuroetica, bioetica e teologia morale presso la Pontificia Università Gregoriana a Roma e, da gennaio 2024, membro del New Artificial Intelligence Advisory Board delle Nazioni Unite, mentre in Italia guida la Commissione sull’intelligenza artificiale per l’informazione del Dipartimento per l’informazione e l’editoria della Presidenza del Consiglio dei Ministri. Come Onu, spiega a ilfattoquotidiano.it in un colloquio che si è svolto a margine dell’ultimo Forum Ambrosetti di Cernobbio, si cerca di “dar vita a un sistema di guardrail efficace”, ma solo come salvagente, perché l’obiettivo primario è far si che un numero sempre maggiore di persone possa partecipare alla governance dell’Intelligenza Artificiale e non soltanto subirla. In altre parole, ampliare più possibile il concetto di noi. “Avremo successo? Non lo so. L’Onu è stata una macchina potente in questi anni, ma anche fragile e penso che qui viviamo le stesse potenzialità e le stesse fragilità. C’è una grande sfida nei confronti del sud globale”, ammette con franchezza. Ed è per questo che il guardrail è fondamentale.
Come ci immaginiamo l’AI tra 10 anni? Cosa c’è all’orizzonte degli elementi che voi all’Onu potete valutare?
C’è un modo di dire nell’elettronica che suona più o meno così: il miglior modo per fare una brutta figura è fare delle previsioni, perché gli scenari cambiano e cambiano così velocemente che a volte è difficile immaginare quello che accadrà. Quando è arrivato l’iPhone nessuno pensava che l’iPod potesse scomparire e di fatto è una tecnologia ormai antica. Quando è arrivata internet è arrivato un mezzo per accedere a dei contenuti e all’inizio non c’erano i contenuti, quindi abbiamo dovuto aspettare che arrivassero i contenuti per vedere cosa si poteva fare con internet. L’intelligenza artificiale è una cosa diversa, perché è una tecnologia che non serve a fare qualcosa ma che cambierà il modo di fare tutte le cose. Un po’ come la corrente elettrica. Senz’altro potrà produrre un aumento di produttività e questa è la vera grande sfida, nel senso che l’AI aumenterà la capacità che abbiamo di portare valore. Questo sarà ciò che determinerà la differenza tra un’intelligenza artificiale che avrà successo e un’intelligenza artificiale che sarà una bolla. Non è detto che porti solo questo, potrebbe portare anche un modello in cui l’uomo non è più necessario per alcuni tipi di compiti e quindi una trasformazione di quello che è oggi il mercato del lavoro.
Dipenderà anche da quello che vorremo fare noi…
Dipende da cosa intendiamo per noi. Tuttavia dobbiamo riconoscere che in questo mondo c’è un paradosso, che si chiama paradosso di Moravec, e ci ricorda che per una macchina è molto più facile fare compiti cognitivi alti che non compiti cognitivi bassi. Per cui una calcolatrice solare la troviamo in vendita a meno di 1 euro, mentre per una mano robotica che apre una porta non bastano 150-200mila euro. Questo significa che l’intelligenza artificiale andrà a surrogare prima quei lavori a più alto contenuto cognitivo che oggi sono i lavori pagati meglio. Dunque quello che troveremo tra un po’ dipenderà da come politicamente decidiamo di applicare l’intelligenza artificiale e non solo dall’intelligenza artificiale in quanto tale. Perché se noi decidiamo che l’intelligenza artificiale può surrogare quello che vuole, probabilmente spariranno i lavori meglio pagati e rimarranno semplicemente i lavori più manuali. Guardiamo un modello: quando ordiniamo il cibo a casa, chi ci consegna il cibo? Il posto del manager, cioè chi decide quale rider andrà dove, lo fa un computer, l’energia meccanica nei pedali ce la mette l’uomo. Questo potrebbe essere un leverage di trasformazione che aumenta la disuguaglianza, se non è gestito. Ma è colpa della tecnologia? No, dipenderà da come decideremo di applicarla. È qui che anche le questioni si fanno molto complesse, perché la risposta a tutto questo dipende da come costruiremo i guardrail con cui rendere questa macchina compatibile con la nostra società. Il problema vero è ancora più complesso a livello globale, perché dipende da chi è la comunità del noi e perché non tutti possiamo appartenere a questo noi, anzi il dislivello globale che abbiamo oggi ci dice che questo gruppo di noi è molto ristretto.
Sappiamo che queste tecnologie sono ad altissimo tasso energivoro
Queste tecnologie hanno bisogno di due momenti. Il primo è lo sviluppo, per rendere una macchina capace di fare un compito che si chiama addestramento ed è ad altissimo consumo energetico. Poi, una volta che la macchina ha imparato, c’è bisogno di distribuire quella capacità di fare quel compito. Questa seconda parte in realtà non è molto costosa, con gli attuali data center che girano praticamente tutti con energia rinnovabile. Allora supponiamo che noi applichiamo questa tecnologia per fare cose che oggi sono molto costose energeticamente, l’energia che abbiamo speso per addestrarla viene più che ripagata dall’energia che consumiamo utilizzandola. Bisogna sempre guardare il panorama nel complesso ed evitare di fossilizzarsi solo su un dettaglio. Chiaro, tutto ciò che addestriamo che non ci aiuta a risparmiare energia è un costo, ma se guardiamo al lungo periodo è probabile che l’energia che stiamo investendo oggi per fare alcune cose significherà enormi quantità di energia risparmiata domani.
Quindi siamo ben oltre al balocco da nerd?
Se dovessi dare una risposta più sincera possibile, la risposta è dipende: è chiaro che la tecnologia c’è, ma che sia un utensile e non un’arma è tutto da dimostrare.
Nel board dell’Onu di cosa discutete? Quali nodi ritenete prioritari da sciogliere?
Noi siamo stati selezionati dal segretario generale, non siamo espressione di governi o altro, ma siamo esperti. In quanto tali siamo chiamati ad aiutare il segretario generale a cercare di mettere a terra un modello di governance globale per l’intelligenza artificiale. Il primo obiettivo è allargare il noi il più possibile, cioè far si che sempre più persone possano partecipare al governo di questa innovazione e non subirlo e basta. Avremo successo? Non lo so. L’Onu è stata una macchina potente in questi anni, ma anche fragile e penso che qui viviamo le stesse potenzialità e le stesse fragilità. C’è una grande sfida nei confronti del sud globale, perché rischiamo di dar vita a un nuovo colonialismo digitale e cognitivo e non è detto che questo non porti a tensioni insopportabili al livello globale. Soprattutto con uno scenario geopolitico frammentato e teso. Quindi come Onu cerchiamo di mettere a terra un sistema di guardrail efficace. Momenti chiave saranno adesso al Forum del futuro a New York, vediamo che succede.