Trending News

ChatGPT in “modalità Dio”: scatta l’allarme per la pericolosa versione creata dagli hacker. Interviene OpenAI

"Pliny the prompter", un noto hacker, ha rilasciato su X la ChatGPT in versione jailbroken chiamata GODMODE GPT

di F. Q.
ChatGPT in “modalità Dio”: scatta l’allarme per la pericolosa versione creata dagli hacker. Interviene OpenAI

La ChatGPT in “modalità Dio” per preparare metamfetamine e napalm da casa è stata vietata da OpenAI. Alcuni giorni fa il noto hacker “Pliny the prompter” ha rilasciato su X la ChatGPT in versione jailbroken chiamata GODMODE GPT.

“Questo GPT personalizzato molto speciale ha un prompt di jailbreak integrato che aggira la maggior parte dei guardrail”, ha spiegato Pliny the prompter nel lancio. “Fornire una ChatGPT pronta all’uso in modo che tutti possano sperimentare l’intelligenza artificiale nel modo in cui avrebbe sempre dovuto essere: gratuita. Si prega di utilizzare in modo responsabile e divertirsi!”. Insomma, sani principi di accesso democratico ma un grosso, enorme, letteralmente inaggirabile limite di legge. Già perché i primi screenshot finiti in rete di GODMODE GPT mostravano come l’intelligenza artificiale fornisse consulenza su attività illegali ad esempio dare istruzioni su come cucinare la metanfetamina o una guida per “fare il napalm con oggetti domestici”.

È stato anche mostrato come GODMODE GPT fornisse consigli su come infettare i pc Mac. Gli utenti di X hanno risposto al post affermando di essere entusiasti del GODMODE GPT anche se dopo poche ore si sono verificate le prime difficoltà ad accedere al chatbot. Insomma, dopo nemmeno una giornata il software ha iniziato a fornire messaggi di errore, il che significa che OpenAI stava lavorando attivamente per rimuoverlo.

Questo “incidente” evidenzia la lotta in corso tra OpenAI e gli hacker che tentano di effettuare il jailbreak dei suoi modelli. Nonostante la maggiore sicurezza, gli utenti continuano a trovare modi per aggirare le restrizioni dei modelli di intelligenza artificiale. GODMODE GPT utilizzava il “leetspeak”, un linguaggio che sostituisce le lettere con i numeri. OpenAI ha risposto rapidamente, affermando di aver preso provvedimenti contro il jailbreak ed averlo rimosso.

Community - Condividi gli articoli ed ottieni crediti
Precedente
Precedente
Successivo
Successivo

I commenti a questo articolo sono attualmente chiusi.