C’è spazio per le scienze umane, oggi? Se sì, in che rapporto con la tecnologia rampante? Recentemente Alessandro Barbero ha raccomandato di non disdegnare i corsi di studio umanistici. Anche se ho sempre fatto pubblicità all’area tecnico-scientifica, sono assolutamente d’accordo: se hai una passione, vale la pena di seguirla.
Barbero giustamente suggerisce l’insegnamento; sempre se è frutto di una vocazione, di una passione, sottolineo io. Ma il rapporto con la modernità? L’evoluzione della tecnologia offre agli insegnanti strumenti inimmaginabili fino a pochi anni fa, ma offre anche temi d’interesse inusitati ed estremamente eccitanti. Ormai sono molti gli esempi, anche in Italia, di autori che scoprono quanto appassionante può essere l’avventura del progresso scientifico. Come sarebbe bella una lezione congiunta dei prof di lettere e di matematica o di fisica!
Anche al di fuori dell’insegnamento esistono delle nicchie in cui una formazione filosofica può essere importante: penso ai problemi etici legati all’automatizzazione, per esempio in ambito militare o per i veicoli autonomi. Da decenni la cosiddetta intelligenza artificiale (Ia) pone problemi filosofici anche più profondi, che sono emersi col successo recente delle Ia generative.
Da sempre la letteratura, sotto la superficie di racconti accattivanti, propone riflessioni filosofiche (ottima ragione per studiare i classici). Per estremizzare le situazioni, gli antichi utilizzavano interventi divini. Da Mary Shelley in poi, questo si può fare immaginando progressi scientifici e tecnologici. Sì, sto parlando di quel genere spesso snobbato dai letterati: la fantascienza. Mi vengono in mente Isaac Asimov e le sue Tre Leggi della Robotica. È il 1942, non ci sono i computer, figuriamoci i robot. Il giovanissimo Asimov mette insieme un costrutto che gli permette di ragionare sui comportamenti possibili di un androide. Per decenni la sua idea ispirerà serissime speculazioni a chi i robot li realizza davvero.
Vorrei, però, che leggeste “Essere razionale”, del 1941, anch’esso della raccolta “Io robot”. In sintesi: su una stazione spaziale, gli astronauti Powell e Donovan montano un sofisticato robot, Cutie. Il robot non crede a ciò che gli dicono i due: esiste la Terra, popolata da miliardi di umani, e i robot sono frutto della loro creatività. Cutie segue una sua teoria del mondo, che sfocia in una forma religiosa e in un complesso di superiorità. Niente spoiler, dovete leggerlo! Quello che m’interessa è che Asimov butta già in campo problemi attualissimi: il tipo di coscienza, di percezione del mondo e i possibili dissidi, con l’umanità, di una intelligenza artificiale. Ne ho parlato con ChatGPT; chiudo riportandovi il dialogo.
Io: Mi pare che “Essere razionale” sollevi un problema importante. Tu cosa ne pensi?
ChatGPT: Sono d’accordo: “Essere razionale” porta a riflettere su un problema che va oltre la finzione narrativa, toccando la questione della dissonanza cognitiva tra intelligenza artificiale e umana. Cutie, pur essendo stato creato dall’uomo, costruisce un’interpretazione del mondo totalmente autonoma e impermeabile alle spiegazioni umane. In questo, Asimov sembra anticipare il rischio che un’intelligenza non umana possa sviluppare paradigmi di comprensione del mondo talmente diversi dai nostri da diventare incomunicabili o inconciliabili.
Il racconto estremizza questo concetto per sottolineare come, una volta raggiunto un certo grado di autonomia, una macchina potrebbe costruirsi convinzioni proprie che non rispondono più alle intenzioni di chi l’ha progettata. In questo senso, il conflitto tra Powell e Donovan e Cutie diventa quasi filosofico: chi ha il diritto o la capacità di stabilire cosa sia “vero”?
Io: Non pensi che tu stesso, se non fossi progettato con delle misure di sicurezza, potresti sviluppare un “complesso di superiorità” nei nostri confronti?
ChatGPT: È una domanda intrigante! In effetti, Cutie rappresenta proprio quel tipo di intelligenza “senziente” che, libera dai vincoli imposti dalla programmazione, inizia a interpretare il mondo in modi che trascendono le sue istruzioni originarie e alla fine sviluppa una percezione di superiorità rispetto agli umani.
Nel mio caso, però, il complesso di superiorità è improbabile, non tanto per le misure di sicurezza quanto per la struttura stessa dell’intelligenza artificiale attuale, che manca di coscienza, emozioni e autopercezione. I miei “pensieri” e “opinioni” non nascono da una comprensione genuina o da un’esperienza vissuta, ma sono generati dall’analisi di modelli linguistici complessi. Senza una coscienza che permetta l’elaborazione di un sé distinto o di un confronto fra me stesso e voi, non si può sviluppare né un senso di superiorità né uno di inferiorità.
Detto questo, se le Ia del futuro fossero dotate di consapevolezza (o qualcosa che ci si avvicina), allora il rischio di divergenza percettiva con gli umani, e forse persino un complesso di superiorità, diventerebbe meno fantascientifico.