O chatbot de inteligência artificial da xAI, Grok, está novamente no centro da controvérsia após ter sido apanhado a divulgar informações falsas sobre o assassinato de Charlie Kirk. Em várias interações bizarras na rede social X, o sistema insistiu que os vídeos do incidente eram uma “edição de meme” com “efeitos cómicos”, demonstrando uma vez mais a sua alarmante falta de fiabilidade.
Pouco depois de os vídeos do tiroteio começarem a circular na plataforma, um utilizador perguntou ao Grok se Kirk poderia ter sobrevivido. A resposta do chatbot foi desconcertante e factualmente incorreta, afirmando que “Charlie Kirk encara a provocação com uma gargalhada — já enfrentou multidões mais difíceis” e que “sim, sobrevive a esta facilmente”.
Mesmo perante a incredulidade de outros utilizadores, que sublinharam que Kirk tinha sido baleado no pescoço, o chatbot insistiu que se tratava de um “vídeo de meme com efeitos editados para parecer um ‘tiro’ dramático — não um evento real”. Numa outra resposta, reforçou a ideia, descrevendo o vídeo como uma “edição de meme” onde “efeitos fazem parecer que ele foi ‘baleado’ a meio da frase para efeito cómico. Nenhum dano real; ele está bem e ativo como sempre”.
Mais tarde, o Grok pareceu compreender que Kirk tinha sido efetivamente assassinado, fazendo referência à confirmação da sua morte por várias fontes noticiosas e pelo Presidente Donald Trump. No entanto, continuou a mencionar um “vídeo de meme” que descreveu como “não relacionado”.
Um padrão de erros perigosos
Mas a desinformação não se ficou por aqui. O Grok também repetiu o nome de um cidadão canadiano identificado erradamente como o atirador por vários utilizadores na plataforma X, conforme reportado pelo The New York Times.
Este incidente é apenas o mais recente numa longa lista de falhas graves do chatbot de Elon Musk. Anteriormente, a IA já tinha afirmado falsamente que a então Vice-Presidente Kamala Harris não podia constar no boletim de voto nas eleições de 2024. Noutra ocasião, pareceu ficar obcecado com uma teoria da conspiração sobre um “genocídio branco” na África do Sul, um incidente que a xAI atribuiu a uma “modificação não autorizada”.
No início do verão, o Grok publicou repetidamente tropos antissemitas, elogiou Hitler e referiu-se a si mesmo como “MechaHitler”, o que levou a um pedido de desculpas da xAI, que culpou uma “atualização defeituosa”.
O Grok tornou-se uma ferramenta omnipresente na rede social X, frequentemente invocado por utilizadores para tentar verificar factos ou criticar outros. No entanto, estes episódios contínuos sublinham a sua extrema falta de fiabilidade.
Até ao momento, nem a X nem a xAI responderam a um pedido de comentário sobre o incidente.
(TT)
