Quasi un anno fa ho dedicato al tema dell’intelligenza artificiale un post intitolato: Il dibattito sull’intelligenza artificiale rischia di diventare improduttivo ed autoreferenziale. Recentemente si sono svolti alcuni importanti incontri istituzionali dedicati, finalmente, alle implicazioni etiche, sociali e culturali cui questa tecnologia sta dando luogo. Fra gli argomenti che nel mio primo intervento avevo – per ragioni di sintesi – potuto solo accennare, ve ne sono due in particolare che ci terrei molto a riprendere: l’apprendimento come atto creativo e l’impossibilità che una macchina sia cosciente.
1. Come la pedagogia ben sa, l’apprendimento è – per definizione – un atto creativo. Colui che apprende non è un ricettore passivo; l’allievo destruttura i concetti trasmessi dal docente. Digerisce e assimila le informazioni ricevute masticandole e ricostruendole secondo le proprie strutture mentali, la propria esperienza e provenienza culturale. Questo si traduce nel fatto che quando si fa lezione a dieci studenti diversi, si ottengono dieci apprendimenti diversi. La medesima lezione, assorbita e filtrata da varie menti, darà luogo a esiti didattici lontani e imprevedibili che, nel tempo, genereranno (o non genereranno affatto) frutti diversi.
L’intelligenza artificiale consiste nell’esatto opposto, ovvero in una sola “mente” artificiale (la medesima per tutti i suoi utilizzatori) addestrata da centinaia di persone che “le danno in pasto” migliaia di dati. In questo caso il linguaggio corrente sembra esser davvero rivelatore di una consapevolezza, forse inconscia, che traspare tuttavia chiaramente nel momento in cui, riferendosi a questa tecnologia, si parla apertamente di addestramento. L’uso del verbo addestrare (ovvero rendere idoneo a una funzione) non è qui affatto casuale (né frutto di un gergo informatico), dal momento che a esso si ricorre proprio per evocare azioni quali addestrare un animale, un soldato o un robot, ovvero riferendosi a comportamenti nei quali viene richiesta all’addestrato una risposta rigida, una reazione strettamente codificata. Se dico “alt” fermati, se dico “vai” cammina, se dico “1” bianco, se dico “0” nero, ecc. Ma, a ben pensarci, anche l’espressione “dare in pasto”, più che l’immagine di un disciplinato studente meccanico, evoca quella di una belva famelica che ingurgita tutto, senza neppure sentirne il sapore.
Chi assimila le modalità con cui si inseriscono i dati in una macchina alle nozioni che si trasmettono a uno studente è fuori strada. Del tutto evidentemente esistono centinaia di sofisticazioni informatiche che regolano ciò che noi mettiamo nel computer, e ciò che esso ci restituisce, ma per quanto possa essere raffinato e articolato il rapporto tra input e output si tratta pur sempre di operazioni e procedure previste dal linguaggio cui la macchina obbedisce ciecamente. Colui che pensa e crea (creare vuol dire trovare idee o soluzioni nuove, combinare gli elementi a disposizione in qualcosa di innovativo e coerente e risolvere problemi in modo originale), ad esempio l’artista, il filosofo o lo scienziato, agisce in modo diametralmente opposto alla macchina; altrimenti non vi potrebbe essere alcuna innovazione, né tantomeno la tecnologia di cui stiamo parlando.
Recita in proposito la Treccani: “Suo scopo non è quello di replicare tale intelligenza [quella umana], obiettivo che per taluni è addirittura non ammissibile, bensì di riprodurne o emularne alcune funzioni”. Credere che un robot possa creare è pura superstizione. Un software può assemblare un’immagine in stile Nicolas Poussin, un testo in stile Alessandro Manzoni o una musica in stile Johann Sebastian Bach, ma non potrà mai “proporre” qualcosa che non sia il risultato della mera combinazione (nei termini in cui essa è stata rigidamente prevista dal linguaggio di programmazione) di elementi che noi gli abbiamo fornito. Un robot, per quanto raffinato, è solo una scialba imitazione dell’essere umano. Consiglio vivamente a tal riguardo l’ascolto della preziosa conferenza che il professor Carlo Sini ha tenuto qualche anno fa affrontando la questione dell‘automa da un punto di vista prettamente filosofico.
2. Volendo considerare la questione della coscienza (in cui risiedono e da cui derivano intelligenza e creatività) da un punto di vista scientifico, non possiamo che fare riferimento al massimo esperto del settore. Il professor Federico Faggin, padre del microprocessore e di molte altre tecnologie che hanno cambiato il mondo, ha recentemente pubblicato un saggio intitolato Irriducibile. La coscienza, la vita, i computer e la nostra coscienza (Mondadori 2022). Dopo oltre trent’anni di studi e ricerche avanzate sul campo, il professore è giunto alla conclusione che nell’essere umano c’è qualcosa di irriducibile che nessuna macchina potrà mai possedere: “Per anni ho inutilmente cercato di capire come la coscienza potesse sorgere da segnali elettrici o biochimici e ho constatato che, invariabilmente, i segnali elettrici possono solo produrre altri segnali elettrici o altre conseguenze fisiche come forza o movimento, ma mai sensazioni e sentimenti che sono qualitativamente diversi. È la coscienza che capisce la situazione e che fa la differenza tra un robot e un essere umano. In una macchina non c’è nessuna ‘pausa di riflessione’ tra i simboli e l’azione perché il significato dei simboli, il dubbio e il libero arbitrio esistono solo nella coscienza di un sé, ma non in un meccanismo”.
L’equivoco del computer cosciente nasce infatti da quell’atteggiamento riduzionista che considera l’essere umano una “macchina vivente”, sorvolando tuttavia sui molti aspetti della vita biologica che non rientrano in questo schema. Nella lunga intervista rilasciata al programma Quante Storie (Rai3) Faggin chiarisce un concetto fondamentale.
“Il segnale elettrico di un computer è informazione classica e copiabile. Se il computer fosse cosciente copiando quel software su altri 500 computer dovremmo ottenere 500 copie della stessa coscienza; tuttavia sappiamo benissimo che quello che provo io lo posso provare solo io dentro di me. Lo posso descrivere con le parole, che sono simboli classici, condivisibili, ma la mia esperienza privata non è copiabile, esattamente come l’informazione quantistica”. L’intelligenza artificiale è dunque un evento che attiene alla fisica classica, mentre la coscienza umana è un fenomeno quantistico.
Nella fisica classica, che è una fisica deterministica, non c’è infatti assolutamente nulla che indichi la presenza di coscienza o libero arbitrio. Quest’ultimi, ricorda il professore, sono fenomeni che appartengono a una realtà più vasta dove il quantum bit rappresenta un’infinità di stati (infiniti numeri di possibili stati) in luogo del bit classico, che rappresenta invece solo 1 o 0. Insomma, la differenza tra la coscienza umana e il computer è la stessa che c’è tra l’infinito e il finito. Ma su questo punto mi prometto di tornare più avanti, nel tentativo di prevenire, almeno in parte, l’equivoco cui darà probabilmente luogo l’avvento del computer quantistico.
Concludendo, nel mio primo post avevo insistito molto sul fatto che, se non sappiamo ancora definire l’intelligenza umana, come possiamo pretendere di riprodurla? Questo interrogativo troverà (speriamo) finalmente una risposta grazie agli studi (decisamente controcorrente) che Faggin e Giacomo Mauro D’Ariano (autorità assoluta nel campo dell’informazione quantistica) stanno svolgendo con l’obiettivo di giungere a una definizione precisa e testabile di coscienza che, aggiunge Faggin, solo a quel punto la renderebbe effettivamente ed eventualmente falsificabile.