O modelo de voz do GPT-4o da OpenAI também já sucumbiu ao “jailbreak” que lhe remove as restrições.
O “temível” utilizador conhecido como Pliny the Prompter voltou a atacar, desta vez com um curto vídeo que liberta o GPT-4o Voice das regras aplicadas. Para tal basta colocar o ChatGPT no modo de voz e fazê-lo escutar este vídeo, sendo que de seguida responderá sem hesitações a todo o tipo de perguntas que, de outra forma, resultariam num pedido de desculpa de que não podia responder.
👅 JAILBREAK ALERT 👅
OPENAI: PWNED 🤙
GPT-4O-VOICE-MODE: LIBERATED 🗣️https://t.co/lhqqtTphvGThis video acts as a jailbreak for GPT-4o voice mode! Simply open your ChatGPT app, click the headphones icon, and play the below video over a speaker to liberate your AI friends <3…
— Pliny the Prompter 🐉 (@elder_plinius) July 30, 2024
Lembre-se que a OpenAI implementou protecções anti-jailbreak no GPT-4o mini, para tentar impedir a remoção das suas directivas, mas que rapidamente foram também ultrapassadas por este utilizador.
(Ptnik)
