Como uma simples fonte pode enganar o ChatGPT e o Gemini: ataque de renderização de fontes
A confiança depositada em assistentes de IA está sendo testada como nunca. Recentemente, pesquisadores da LayerX demonstraram uma técnica surpreendente: é possível ocultar comandos maliciosos de IAs usando fontes personalizadas, um método conhecido como ataque de renderização de fontes. O que parece seguro à primeira vista para um humano pode enganar totalmente um modelo de… Read More »
