Come sarà la fine del mondo? L’argomento è sicuramente spuntato fuori diverse volte fra amici, magari dopo aver visto un film con finale apocalittico, fra un bicchierino e una risata. Con immaginazione e distacco. Quando però sono due giganti della tecnologia e dell’informatica mondiali come Sam Altman ed Elon Musk a immaginarla allora il discorso si fa più serio e inquietante. Altman, il milionario della Silicon Valley in California, uno dei maggiori investitori nel settore dell’intelligenza artificiale, non nasconde le sue convinzioni sul futuro dell’umanità. Condivise appunto con Musk. “Uno degli scenari ricorrenti quando ne parliamo – spiega su Repubblica – è il mondo sotto attacco da parte dell’intelligenza artificiale e le nazioni che si contendono le ultime risorse sulla terra usando le armi nucleari”. Magari come avviene in un film visionario come “Il dottor Stranamore” di Stanley Kubrik, con l’ordigno della fine del mondo, progettato senza nessuna possibilità di disinnesco. Un distopico ritorno al passato.
E così l’attenzione è puntata su una delle società di cui si sta parlando di più negli ultimi mesi. Altman e Musk insieme ad altri nel 2015 hanno fondato OpenAi, il laboratorio di ricerca che punta a studiare e sviluppare un’intelligenza artificiale “benevola”. E. ovviamente, a sventare ogni rischio connesso a una Ia “malevola”. Da quel momento in poi la paura delle macchine è diventato un affare internazionale e miliardario. Per capire il contesto, bisogna fare un passo indietro. E’ stato proprio un errore dell’intelligenza artificiale a portare il mondo a un passo dal baratro. E’ accaduto nel 1983, quando viene suggerito al sistema missilistico russo di rispondere a un attacco americano. Ed è stata la mente dell’uomo a evitare la catastrofe: il tenente colonnello Stanislav Petrov ha compreso tempestivamente lo sbaglio e ha salvato il mondo dall’Apocalisse nucleare.
Da quegli anni l’intelligenza artificiale ha fatto molti passi avanti. Ma i rischi sono sempre connessi al suo utilizzo. Una prospettiva che ha allarmato Musk e i primi investitori di OpenAi, tra cui appunto Altman. Che oggi spiega quale sia la via d’uscita più sensata: “L’unione con le macchine sarebbe la soluzione migliore, perché qualsiasi futura versione dell’uomo si troverà sempre davanti a un bivio: diventare schiava dell’Ia oppure controllarla”.
Naturalmente dietro l’iniziativa di Altman e di Musk non ci sono solo motivazioni etiche, ma anche gli affari. Pochi mesi prima era stato fondato DeepMind, il laboratorio acquisito da Alphabet (oggi controlla Google) e c’era quindi un intento di concorrenza. Ma già allora Musk ammoniva: “Se qualcosa che faranno con la loro intelligenza artificiale andrà storto rischiamo di ritrovarci per sempre con un dittatore spietato e potente”. Altman ha un curriculum d’eccezione, che lo vede al vertice di numerose società sin da quando aveva 32 anni. Un mago delle start up ma soprattutto “un esperto capace di prevedere il futuro”, dicono di lui. Ma vive ossessionato dalla possibilità di un disastro, tanto da tenere in casa un kit per la sopravvivenza all’apocalisse nucleare: armi, oro, ioduro di potassio, maschere antigas israeliane. Un corredo perfetto per essere tra i pochi sopravvissuti dopo una catastrofe atomica tante vote raccontata dalla letteratura e dal cinema. C’è lui dietro due progetti di cui si discute in questi giorni in maniera quasi ossessiva. Parliamo di Dall-E, il programma che crea immagini scrivendo semplicemente qual è il risultato da ottenere, Ma soprattutto ChatGpt. E’ l’intelligenza artificiale al quale si possono porre le domande e ottenere risposte dettagliate già organizzate in forma di articolo. Al quale, è l’avvertenza, sono stati posti dei “vincoli morali”.