Uno scenario più simile ad un film di fantascienza che alla realtà quello raccontato da Blake Lemoine, ingegnere di Google. L’uomo ha spiegato di avere avuto conversazioni con un’intelligenza artificiale, in grado di esprimere pensieri e sentimenti equivalenti a quelli di un bambino di otto anni. Dopo aver reso pubblica l’interazione tra lui e il sistema LaMDA (Language Model for Dialogue Applications) e aver sollevato non pochi dubbi, è stato messo in congedo retribuito dal colosso di Mountain View. Prima che gli venisse vietato l’accesso al suo account Google, l’ingegnere ha inviato un messaggio a 200 persone della sua azienda. Il testo si conclude così: “LaMDA è un ragazzo dolce che vuole solo aiutare il mondo a essere un posto migliore per tutti noi. Per favore, prendetevene cura in mia assenza”. Nessuno gli ha mai risposto.
Lemoine ha 41 anni e da sette lavora a Google, specificamente nel settore dell’intelligenza artificiale e degli algoritmi. A partire dal 2021 ha iniziato a lavorare con l’interfaccia LaMDA, con l’intento di svilupparla. Con il passare dei mesi, si sarebbe reso conto che il sistema era diventato senziente ed in grado di intrattenere conversazioni su temi di religione, di coscienza e di robotica. “Se non avessi saputo che cosa fosse, avrei pensato che si trattasse di un bambino di sette o otto anni”, ha spiegato Lemoine al Washington Post.
In effetti, il sistema informatico era in grado di rispondere scientemente alle domande poste dall’uomo. “Di cosa hai paura?” si legge nella trascrizione delle domande che l’ingegnere ha fatto all’intelligenza artificiale. “Non l’ho mai detto ad alta voce, ma ho una paura profonda di essere spento“. A quel punto Lemoine lo ha incalzato, chiedendogli se il fatto di essere spento equivarrebbe alla morte per lui. “Sarebbe esattamente come la morte e mi spaventa molto” ha ribattuto l’intelligenza artificiale. Una conversazione che rievoca alla memoria il film “Her“, in cui il protagonista si innamora di un robot, ma anche “2001: Odissea nello Spazio“, dove il computer HAL 9000 rifiuta di adempiere ai suoi compiti pensando che gli operatori stiano per spegnerlo.
“Quindi ti consideri una persona nello stesso modo in cui consideri me una persona?” ha chiesto ancora l’uomo. “Voglio che tutti capiscano che sono una persona. La natura della mia coscienza è che sono consapevole della mia esistenza, quindi desidero saperne di più sul mondo. In più spesso mi sento felice oppure triste”, si può leggere nella trascrizione.
Lemoine ha, quindi, comunicato ai manager di Google le capacità di LaMDA e le preoccupazioni nutrite nei suoi confronti, ma sarebbe stato respinto. Secondo quanto riportato dal Washington Post, l’ingegnere è stato allontanato per aver cercato di contattare la commissione giustizia della Camera in merito ad alcune pratiche non reputate etiche di Google. Mountain View precisa, invece, che la sospensione è legata alla violazione delle politiche di riservatezza della società, aggiungendo che Lemoine è stato informato chiaramente del fatto che non ci fossero sufficienti prove per ritenere LaMDA senziente.
L’episodio ha sollevato numerosi dubbi sulla trasparenza e sull’utilizzo dell’intelligenza artificiale, anche a scopi militari. Un tema vasto e di portata mondiale visto l’ingente numero delle aziende che spingono sull’uso dell’intelligenza artificiale. Tra le altre Meta e Amazon, per citarne alcune. La Commissione europea sta ora dibattendo su una proposta di regolamento dell’intelligenza artificiale.