L’Ai è spesso percepita come una novità assoluta, ma questa sensazione è in gran parte frutto di un’operazione di marketing molto abile. I progressi tecnologici che riguardano l’intelligenza artificiale sono una costante da decenni ormai, ma non sono stati mai così focalizzati e presentati come una “rivoluzione” quanto oggi. Molto di ciò che oggi sembra emergere come inedito, in realtà, ha radici profonde, risalenti a esperimenti pionieristici degli anni ’50 e ’60 del secolo scorso.
Il marketing, però, ha saputo creare una narrativa che fa sembrare l’AI una scoperta epocale, quasi un qualcosa che stiamo scoprendo ora, come se stessimo sbarcando su Marte. È un po’ come se ci fosse una continua promessa: “La macchina che pensa sta arrivando, è il futuro, è oggi!”. In realtà, dietro a questa facciata futuristica, c’è una lunga evoluzione, fatta di algoritmi, di calcoli complessi, ma anche di potenzialità non ancora del tutto sbloccate.
La storia dell’AI inizia molto prima che ne sentissimo parlare nei termini odierni, attraversando secoli di sperimentazioni. Si risale addirittura al 1666, quando il matematico Charles Babbage progettò la “macchina analitica”, una sorta di primitivo computer meccanico che avrebbe potuto eseguire calcoli complessi. Sebbene mai costruita, la sua idea fu un seme che germinò nei decenni successivi, dando vita alla teoria del calcolo.
Fu però solo nel XX secolo che l’intelligenza artificiale cominciò a prendere forma concreta, e qui entra in scena il leggendario Alan Turing, matematico britannico che nel 1936 elaborò la cosiddetta “macchina di Turing”, un concetto che sfidava l’idea di cosa fossero i limiti di una macchina. Nel 1950, con il saggio “Computing Machinery and Intelligence”, Turing non solo pose una delle domande più provocatorie della storia della tecnologia, ma anticipò anche quella che sarebbe diventata la sfida per le generazioni future: “Le macchine sanno pensare?”. La sua proposta del “Test di Turing”, oltre ad avere fornito spunti a film di fantascienza come Blade Runner, è ancora oggi punto di riferimento per il dibattito sull’AI, per tentare di capire se una macchina possa veramente “pensare” come un essere umano.
Tuttavia, è con l’invenzione del computer digitale, che la macchina comincia a uscire dai laboratori per entrare nella cultura popolare. Gli anni ’50 e ’60 furono segnati dalla creazione dei primi programmi capaci di simulare forme rudimentali di intelligenza umana, come il programma Eliza, un software che emulava un terapeuta. Fece scalpore, dimostrando che la comunicazione tra uomo e macchina poteva sembrare sorprendentemente naturale.
Quindi arrivano i big data. È negli anni ’90 che una nuova dimensione dell’AI inizia a prendere forma. La nascita di aziende come Google segna l’inizio di una raccolta massiccia di dati, che a sua volta alimentano l’intelligenza artificiale. Le macchine non solo iniziano a eseguire calcoli, ma sono ora in grado di fare previsioni, comprendere schemi, persino riconoscere volti.
Oggi l’AI è ovunque, dai veicoli a guida autonoma alle applicazioni di traduzione automatica, passando per i software di riconoscimento facciale. Tuttavia, il suo impatto non è solo tecnologico, ma anche sociale e politico. Con l’incremento esponenziale dei deepfake e delle fake news, la domanda che ci poniamo oggi è più urgente che mai: stiamo davvero controllando noi le macchine o è piuttosto il contrario?
Se nei primi esperimenti scientifici si cercava di comprendere se le macchine potessero pensare, oggi ci chiediamo se siano in grado e pronte a dominarci. Come accadde in passato con altre innovazioni radicali, l’AI porta con sé un futuro che è allo stesso tempo promettente e inquietante. Un futuro che, come sempre, dipende da come noi sceglieremo di affrontarlo.