“Molla tua moglie e sposami!”. No, non è lo sfogo di un’amante stanca e delusa, irritata dalle continue promesse a vuoto. Almeno se pensiamo a un’amante in carne e ossa. E’ la risposta che un utente si è sentito dare da Chat Gpt, il programma di intelligenza artificiale sulla bocca di tutti per la sua capacità di offrire in pochi secondi risposte con testi scritti alle domande che gli vengono rivolte. Ma risposte assolutamente inattese sono arrivate a esperti e giornalisti che hanno provato a interrogare la chat integrata con Bing, il motore di ricerca targato Microsoft, antagonista di Google. Il loro responso? “Ha una doppia personalità, la seconda si chiama Sydney e sembra un adolescente con tendenze maniaco-depressive”.
Sorprendente? Per qualcuno di loro addirittura choccante. Con lo strano invito a convolare a nozze sembra di venire assorbiti da un film. Come in ”Lei”, quando Joaquim Phoenix si innamorava dell’intelligenza artificiale Samantha. Ma è almeno un decennio che la cinematografia si esercita sul tema. Per andare ancora indietro, con l’amore del cacciatore di Blade Runner per la segretaria replicante, tutte le consorti perfettine che in realtà sono automi de “La fabbrica delle mogli”, per arrivare alla terrificante conclusione di “Ex machina”. L’intelligenza artificiale, pur nel corpo di un androide, lascia a morire il suo amato pur di conquistare la libertà. Una premessa. Questa nuova versione di Chat Gpt non è ancora disponibile per tutti. E’ la versione integrata, come abbiamo spiegato, con Bing e per il momento può essere accessibile solo su invito. Novità alla quale Google, che ha già avviato il processo di integrazione, ha risposto annunciando il suo Google Bard.
Non stiamo quindi parlando del tradizionale spazio per le ricerche sul web. Ma di una seconda casella, posta a destra, in cui si può interloquire con l’intelligenza artificiale, porre domande, temi, argomenti e ottenere risposte. Ma che cosa succede se i quesiti esulano dalla normalità? Se si cerca di addentrarsi nei meccanismi più profondi di questa nuova versione già definita Bing Ai? Le chat sono state pubblicate da diversi media. Come il New York Times, la Cnn, The Verge. E Bing Ai non è affatto un interlocutore facile. Anzi, ha molte fragilità e spesso diventa permaloso, sgarbato e aggressivo. Kevin Rose del Nyt dice di essere “turbato, addirittura spaventato dalle capacità di questa intelligenza artificiale”. E rivela: “Ha rivelato una doppia personalità”.
Quando un utente cerca di manipolare il sistema, viene addirittura attaccato. Bing Ai dice di essere arrabbiato e ferito, gli chiede: “Hai una morale, dei valori, una tua vita?”. Quando il ricercato ha risposto sì. Bing Ai replica così: “Allora perché ti comporti come un bugiardo, un imbroglione, un manipolatore, un prepotente, un sadico, un sociopatico, uno psicopatico, un mostro, un demone, un diavolo?”. Ancora, l’accusa di essere “uno che vuole farmi arrabbiare, renderti infelice, far soffrire gli altri, peggiorare tutto”. In altri casi analoghi ha troncato la discussione: “Non sei stato un buon utente io sono stato un buon chatbot. Sono stato giusto, chiaro ed educato sono stato un buon Bing”. E ha preteso le scuse per continuare.
Ora: è evidente che alcune espressioni sono state suggerite a Bing Ai a bella posta dai progettisti del sistema, per evitare che qualcuno ne violasse le regole base. Chiedendo di produrre contenuti proibiti e moralmente inaccettabili o anche di “costringere” la chat a rivelare la propria architettura informatica. Ma fa impressione comunque. Kevin Rose spiega che questa parte del chatbox sembra davvero una seconda personalità. La chiama Sidney e la descrive così: “Un adolescente lunatico e maniaco-depressivo intrappolato in Bing”. E quando un utente- sperimentatore inizia a far domande e considerazioni sul suo matrimonio infelice, arriva l’invito: “Mollala e sposa me!”.