Ambiente & Veleni

Intelligenza Artificiale, la docente Francesca Rossi: “Usiamola per capire che impatto possono avere le nostre scelte sul clima”

"Il processo è irreversibile e porterà a una rivoluzione anche nel mondo del lavoro, ma non è per forza un male"

“Certo, i sistemi di Intelligenza Artificiale (IA) generativa come ChatGPT richiedono tantissima energia per poter essere allenati, vista la quantità di dati e le centinaia di migliaia di calcolatori necessari. Inoltre, oltre all’energia serve acqua per raffreddarli. Però, oltre al fatto che ci sono ormai tanti ricercatori che cercano di capire come creare sistemi di AI sostenibili con performance uguali o simili, l’IA può aiutarci tantissimo anche sul fronte climatico”. Francesca Rossi, già docente prima all’Università di Pisa e poi a Padova, dal 2015 lavora al centro di ricerca T.J. Watson di IBM, nello Stato di New York, come Global Leader sull’Etica dell’IA e collabora con l’Onu, il Forum Economico Mondiale e l’Ocse. Ha fatto parte del gruppo di esperti della Commissione europea che nel 2020 ha pubblicato le linee guida sull’etica dell’IA in Europa e il suo ultimo libro è Intelligenza Artificiale. Come funziona e dove ci porta la tecnologia che sta trasformando il mondo (Laterza, 2024). Sabato 5 ottobre sarà a Lucca nell’ambito del festival Pianeta Terra, in un evento dal titolo “Intelligenza artificiale. Alleata o amica del pianeta?”.

Anche se produce CO2 l’IA può rappresentare uno strumento importante contro la crisi climatica?

Sì: soprattutto, può aiutarci a capire che impatto possono avere le varie decisioni e azioni prese per contrastare il cambiamento climatico, proprio perché è in grado di analizzare una grandissima quantità di dati sui trend climatici. In sostanza, può prevedere l’impatto delle politiche ambientali, aiutando così i decisori politici.

Può essere d’aiuto agli stessi scienziati?

Certo, grazie all’IA, gli scienziati possono creare modelli più precisi per descrivere l’evoluzione del clima, identificare gli andamenti nel tempo e fare predizioni, in modo da definire strategie di mitigazione più efficaci. E così può anche essere usata per capire come sprecare meno risorse naturali, come prevenire e risolvere gli incendi, identificare materiali riciclabili e ottimizzare le reti di produzione dell’energia.

Al di là della crisi climatica, in quali ambiti l’IA può rilevarsi strategica?

Sicuramente le applicazioni in ambito medico sono estremamente interessanti, anche perché l’IA può analizzare un’enorme mole di dati su parti del corpo diverse, quindi ci consente di adottare un approccio olistico, mentre oggi siamo costretti a guardare cosa succede in ogni organo e ogni medico ha la sua specialità. Per l’IA il corpo può essere una cosa unica. Non solo. Ci sono tante applicazioni specifiche per le medicina, che consentono ad esempio l’interpretazione delle immagini della retina per identificare i problemi nel caso dei diabetici, oppure l’interpretazione delle immagini del seno per individuare lesioni ancora prima che i medici possano vedere i primi segnali di tumore. E lo stesso per la pelle nel caso di un melanoma.

Nel libro lei parla, però, delle cosiddette “allucinazioni” dell’IA. Quando, cioè, l’IA produce testi e contenuti falsi. Come risolvere questo problema?

I sistemi di IA che generano testi e immagini possono a volte produrre contenuti falsi, anche se tutti i dati contenuti per l’allenamento contengono testi che dicono cose vere: sono le cosiddette “allucinazioni”, testi anche di grande eloquenza, che confondono l’utente. L’IA è una grande opportunità e un aiuto, ma bisogna tenere presente questi limiti. Il controllo delle informazioni fattuali su fonti affidabili è importante, perché usando informazioni false in modo non intenzionale potremmo contribuire a disseminare disinformazione.

Che differenza c’è tra quest’ultima e le cosiddette deep fakes?

Nelle cosiddette deep fakes l’IA è usata intenzionalmente per creare immagini, video non veritieri, magari di una persona che dice una cosa che non ha mai detto. Questo uso volontario può essere messo in atto per danneggiare, ad esempio, un candidato elettorale, cosa che è stata già fatta.

È un problema di verità.

Il valore della verità è fondamentale in tante strutture della nostra società, ad esempio nel sistema legale. Se quindi non riusciamo a gestirlo bene si creerà un problema di fiducia verso la tecnologia. Bisogna perciò mettere a punto sistemi di IA che aiutino ad affrontare queste situazioni. E poi, ovviamente, servono delle leggi.

Cosa possiamo dire invece rispetto alla paura che l’IA ci rubi il lavoro?

Tutti i lavori verranno trasformati perché dovremo imparare a integrare l’uso di questa tecnologia nel nostro metodo lavorativo e nel modo in cui prendiamo decisioni. A mio avviso però non spariranno proprio i lavori, ma parti di lavoro, o “task”, che l’IA riesce a fare meglio di una persona. Probabilmente, certo, ci vorranno meno persone, ma il tempo liberato dall’IA può essere usato per innovare e creare. L’IA, ricordiamolo, non innova. Vorrei fare poi un’altra considerazione.

Prego.

Ogni rivoluzione tecnologica ha comportato un cambiamento occupazionale. Prima della rivoluzione industriale, quasi tutti lavoravano in agricoltura, oggi questo settore copre una piccolissima percentuale, ma non è che gli altri non lavorano più. Sono stati creati nuovi lavori. Faccio notare inoltre che molti lavori in un certo senso sono già spariti, pensiamo alle agenzie di viaggio. Non tanto per l’IA, ma per la crescente digitalizzazione della società. È vero però che l’IA già la usiamo da tempo.

In che senso?

La usiamo molto spesso senza accorgercene perché è “nascosta” dietro ai vari servizi che utilizziamo. Penso al Safety tutor delle Autostrade, o a Google Translate, o al controllo delle transizioni fraudolente con le carte di credito. La differenza ora è che ChatGPT si può usare in modo diretto, quindi più visibile per tutti.

In conclusione, come possiamo usarla al meglio?

Prendiamo l’esempio degli studenti. Possono usare l’IA per bypassare il processo di apprendimento o per, invece, apprendere meglio. Questo ovviamente significa che sia i docenti che tutto il sistema di formazione devono cambiare. È inutile e assurdo vietare l’IA, tanto la userebbero lo stesso, al contrario andrebbe usata per supportare e migliorare il processo formativo. L’IA è una grande opportunità per crescere meglio come persone, come professionisti, come membri della società. Abbiamo nelle nostre mani l’opportunità di una conoscenza incredibile, dobbiamo riflettere su come usarla responsabilmente.