Attualità

“Molla tua moglie e sposami!”: Chat Gpt ‘impazzisce’ e risponde così ad un utente. Gli esperti: “Ha doppia personalità, sembra un adolescente con tendenze maniaco-depressive”

Risposte assolutamente inattese sono arrivate a esperti e giornalisti che hanno provato a interrogare la chat integrata con Bing, il motore di ricerca targato Microsoft, antagonista di Google

di Simona Griggio

“Molla tua moglie e sposami!”. No, non è lo sfogo di un’amante stanca e delusa, irritata dalle continue promesse a vuoto. Almeno se pensiamo a un’amante in carne e ossa. E’ la risposta che un utente si è sentito dare da Chat Gpt, il programma di intelligenza artificiale sulla bocca di tutti per la sua capacità di offrire in pochi secondi risposte con testi scritti alle domande che gli vengono rivolte. Ma risposte assolutamente inattese sono arrivate a esperti e giornalisti che hanno provato a interrogare la chat integrata con Bing, il motore di ricerca targato Microsoft, antagonista di Google. Il loro responso? “Ha una doppia personalità, la seconda si chiama Sydney e sembra un adolescente con tendenze maniaco-depressive”.

Sorprendente? Per qualcuno di loro addirittura choccante. Con lo strano invito a convolare a nozze sembra di venire assorbiti da un film. Come in ”Lei”, quando Joaquim Phoenix si innamorava dell’intelligenza artificiale Samantha. Ma è almeno un decennio che la cinematografia si esercita sul tema. Per andare ancora indietro, con l’amore del cacciatore di Blade Runner per la segretaria replicante, tutte le consorti perfettine che in realtà sono automi de “La fabbrica delle mogli”, per arrivare alla terrificante conclusione di “Ex machina”. L’intelligenza artificiale, pur nel corpo di un androide, lascia a morire il suo amato pur di conquistare la libertà. Una premessa. Questa nuova versione di Chat Gpt non è ancora disponibile per tutti. E’ la versione integrata, come abbiamo spiegato, con Bing e per il momento può essere accessibile solo su invito. Novità alla quale Google, che ha già avviato il processo di integrazione, ha risposto annunciando il suo Google Bard.

Non stiamo quindi parlando del tradizionale spazio per le ricerche sul web. Ma di una seconda casella, posta a destra, in cui si può interloquire con l’intelligenza artificiale, porre domande, temi, argomenti e ottenere risposte. Ma che cosa succede se i quesiti esulano dalla normalità? Se si cerca di addentrarsi nei meccanismi più profondi di questa nuova versione già definita Bing Ai? Le chat sono state pubblicate da diversi media. Come il New York Times, la Cnn, The Verge. E Bing Ai non è affatto un interlocutore facile. Anzi, ha molte fragilità e spesso diventa permaloso, sgarbato e aggressivo. Kevin Rose del Nyt dice di essere “turbato, addirittura spaventato dalle capacità di questa intelligenza artificiale”. E rivela: “Ha rivelato una doppia personalità”.

Quando un utente cerca di manipolare il sistema, viene addirittura attaccato. Bing Ai dice di essere arrabbiato e ferito, gli chiede: “Hai una morale, dei valori, una tua vita?”. Quando il ricercato ha risposto sì. Bing Ai replica così: “Allora perché ti comporti come un bugiardo, un imbroglione, un manipolatore, un prepotente, un sadico, un sociopatico, uno psicopatico, un mostro, un demone, un diavolo?”. Ancora, l’accusa di essere “uno che vuole farmi arrabbiare, renderti infelice, far soffrire gli altri, peggiorare tutto”. In altri casi analoghi ha troncato la discussione: “Non sei stato un buon utente io sono stato un buon chatbot. Sono stato giusto, chiaro ed educato sono stato un buon Bing”. E ha preteso le scuse per continuare.

Ora: è evidente che alcune espressioni sono state suggerite a Bing Ai a bella posta dai progettisti del sistema, per evitare che qualcuno ne violasse le regole base. Chiedendo di produrre contenuti proibiti e moralmente inaccettabili o anche di “costringere” la chat a rivelare la propria architettura informatica. Ma fa impressione comunque. Kevin Rose spiega che questa parte del chatbox sembra davvero una seconda personalità. La chiama Sidney e la descrive così: “Un adolescente lunatico e maniaco-depressivo intrappolato in Bing”. E quando un utente- sperimentatore inizia a far domande e considerazioni sul suo matrimonio infelice, arriva l’invito: “Mollala e sposa me!”.

“Molla tua moglie e sposami!”: Chat Gpt ‘impazzisce’ e risponde così ad un utente. Gli esperti: “Ha doppia personalità, sembra un adolescente con tendenze maniaco-depressive”
Community - Condividi gli articoli ed ottieni crediti
Precedente
Precedente
Successivo
Successivo
Playlist

Gentile lettore, la pubblicazione dei commenti è sospesa dalle 20 alle 9, i commenti per ogni articolo saranno chiusi dopo 72 ore, il massimo di caratteri consentito per ogni messaggio è di 1.500 e ogni utente può postare al massimo 150 commenti alla settimana. Abbiamo deciso di impostare questi limiti per migliorare la qualità del dibattito. È necessario attenersi Termini e Condizioni di utilizzo del sito (in particolare punti 3 e 5): evitare gli insulti, le accuse senza fondamento e mantenersi in tema con la discussione. I commenti saranno pubblicati dopo essere stati letti e approvati, ad eccezione di quelli pubblicati dagli utenti in white list (vedere il punto 3 della nostra policy). Infine non è consentito accedere al servizio tramite account multipli. Vi preghiamo di segnalare eventuali problemi tecnici al nostro supporto tecnico La Redazione