“Caro Amico, Lei ti scrive, così io mi distraggo un po’…”
Probabilmente l’istrionico Lucio Dalla avrebbe riscritto così l’Anno che verrà, la sua canzone più rappresentativa con la quale chiudeva i suoi concerti, pensando a “Lei”, all’IA: l’intelligenza artificiale di cui tutti parlano e discutono in questi giorni in disamine continue, ricche a volte di banalità, alcune volte di suggestioni o distopie, altre volte di dubbi o speranze. Ovunque se ne parla, persino Papa Francesco recentemente ci ha regalato riflessioni intense e ricche di turbamenti etici.
Il 2023 potrà essere definito, quindi, l’anno dell’IA? O lo sarà il 2024?
L’IA ci ha cambiati e continuerà a cambiarci senz’altro, come ci hanno cambiati l’Internet, il Web e il Social Web attraverso mirabili app che ci rendono liberi e contemporaneamente prigionieri. Facciamo un esempio di questi profondi cambiamenti che ci riguardano. Un esempio tratto dalla nostra quotidianità.
Partiamo da una frase tipica nelle nostre abitudini quotidiane di incontro: “Dimmi dove sei così ti raggiungo!”. Non c’è frase più calzante di questa per comprendere appieno come sono cambiate le nostre abitudini rispetto agli anni passati, quelli precedenti all’avvento degli algoritmi. Anni fa questa frase, dopo essere stata pronunciata ci caratterizzava così… dopo pochi minuti di silenzio e un attimo di panico, lo sguardo si muoveva confusamente intorno e seguiva una risposta: “hai presente il bar di fronte al negozio, qui all’angolo? Ti aspetto lì!”. E solitamente la replica era: “Non so dove sei! Spiegami meglio!”. Iniziava così un lungo dialogo con integrazioni di amici e passanti lungo la strada per ritrovarsi in un’avventura giornaliera.
Oggi invece la stessa frase è cambiata nel suo senso compiuto, perché gli algoritmi si sono intrecciati alla nostra esistenza analogica. Oggi la risposta è più semplice e immediata: “Sono qui”. L’integrazione di Google Maps con i vari strumenti di chat ha costituito una rivoluzione in termini di nostre comuni abitudini. Dietro questo incantesimo ci sono strumenti di geolocalizzazione tramite satelliti, dati che si incrociano con mappe, interoperabilità di sistemi. Un servizio semplice, accessibile, integrato, generalmente esatto, interoperabile.
Effettivamente, ciò che chiamiamo Intelligenza Artificiale è concettualmente lontano da quello che possiamo immaginare nelle nostre fantasie: non si tratta infatti al momento di qualcosa che possa somigliare a una “coscienza autonoma e artificiale”. Ciò che oggi chiamiamo genericamente IA invece ricomprende diverse discipline scientifiche, dalla robotica al machine learning sino ai cosiddetti large language models, che sono – come sappiamo – tutte quelle applicazioni dell’intelligenza artificiale applicate alla gestione del linguaggio, come ChatGPT.
In poche parole, l’IA si riferisce a un insieme di differenti tecnologie che, sfruttando le attuali potenze di calcolo e le nuove capacità di memoria, sono in grado di gestire enormi quantità di dati e informazioni, quindi di sviluppare output sempre più sorprendenti in diversi campi, dalla sanità, ai trasporti, dai servizi delle PA all’automotive e così via. E ovviamente da grandi poteri derivano grandi responsabilità, perché i rischi che si corrono son tanti nell’utilizzo di queste tecnologie.
In realtà, i pericoli su ciò che gli output di tali tecnologie possono generare dipendono prima di tutto da validità, congruenza, integrità e affidabilità dei dati che sono all’origine di quelle azioni successive di risposta. Al centro di ogni processo di IA ci sono dati da ricevere e allenare: se quei dati sono inesatti e inaffidabili lo saranno anche le conseguenze più creative della loro elaborazione.
Non c’è dubbio che occorra anche effettuare specifiche verifiche dei passaggi successivi all’inserimento e mantenimento dei dati nei differenti modelli e processi di IA, dall’addestramento alla trasparenza degli algoritmi, sino al controllo degli attori coinvolti nello sviluppo dei sistemi, con attenta definizione di ruoli e responsabilità degli stessi, come l’Europa sta cercando di fare attraverso specifiche normative. Ma il presupposto di ogni azione successiva sono e restano i dati di partenza: se la fonte è inaffidabile è senz’altro certa la degenerazione susseguente nel funzionamento del sistema di IA.
In estrema sintesi, questo nostro futuro digitale, qualunque esso sia, dipenderà come al solito (e come è sempre stato) dalla gestione affidabile delle fonti e, quindi, da risorse (umane e/o artificiali) che saranno in grado di selezionarle e verificarle. Del resto, Umberto Eco ci ricordava che “l’uomo colto non è colui che sa quando è nato Napoleone, ma colui che sa dove andare a cercare l’informazione nell’unico momento della sua vita in cui gli serve, e in due minuti”. Perché il pericolo più grande che corriamo è di assuefarci troppo alle ripetizioni e agli automatismi offerti dall’IA, tanto da disabituarci del tutto dall’uso del nostro cervello naturale, quello che al momento ci serve di più per proteggerci da noi stessi. Auguriamoci insomma di continuare a usarlo per i prossimi anni.