Os bibliotecários estão fartos de ser acusados de ocultar “livros secretos” inventados pelas IAs

By | 19/12/2025

Nunca ouviu falar do “Journal of International Relief” ou do “International Humanitarian Digital Repository”? A razão é simples: não existem. Chatbots de IA estão a criar títulos falsos e a fazer citações de livros e artigos inventados — que algumas pessoas insistem que são reais.

Toda a gente sabe que chatbots de IA como o ChatGPT, o Grok e o Gemini muitas vezes “alucinam” as suas fontes. Mas, para quem tem a tarefa de ajudar o público a encontrar livros e artigos científicos, este absurdo fabricado pela IA está a tornar-se um fardo pesado.

Segundo a Scientific American, os bibliotecários estão francamente exaustos com pedidos de títulos que não existem.

A revista falou com Sarah Falls, responsável pela ligação e apoio a investigadores na Biblioteca da Virginia, nos EUA, que estima que cerca de 15% de todos os pedidos de referência recebidas por email são sobre títulos gerados por chatbots de IA como o ChatGPT.

E, frequentemente, esses pedidos incluem dúvidas sobre citações falsas.

Mais ainda, Falls sugere que as pessoas parecem não acreditar nos bibliotecários quando estes explicam que um determinado registo não existe, uma tendência também noticiada pelo 404 Media. Muitos acabam por confiar mais no chatbot do que num profissional cujo trabalho é, todos os dias, encontrar informação fiável.

Uma publicação recente do Comité Internacional da Cruz Vermelha (ICRC), intitulada “Important notice: AI generated archival reference”, acrescenta mais provas de que os bibliotecários estão simplesmente saturados disto.

“Se uma referência não puder ser encontrada, isso não significa que o CICV esteja a reter informação. Várias situações podem explicar este facto, incluindo citações incompletas, documentos preservados noutras instituições ou, cada vez mais, alucinações geradas por IA”, afirma a organização.

“Nesses casos, poderá ser necessário examinar a história administrativa da referência para determinar se corresponde a uma fonte arquivística genuína”, acrescenta a nota do ICRC.

O ano parece ter sido marcado por exemplos de livros e artigos científicos falsos criados com recurso a IA. Recentemente, um freelancer do Chicago Sun-Times enviou para o jornal uma lista de leituras de verão com 15 recomendações. Mas, conta o Gizmodo, 10 desses livros não existiam.

Em maio, a chamada comissão “Make America Healthy Again”, do secretário da Saúde Robert F. Kennedy Jr., divulgou o seu primeiro relatório. Uma semana mais tarde, o NOTUS passou a pente fino as conclusões do relatório da comissão — que citava pelo menos 7 estudos que não existiam. Gostaríamos de acreditar que terá sido apenas incompetência de alguém não reviu as alucinações da IA que usou.

Mas porque razão alguns utilizadores confiam mais na IA do que nas pessoas?

Por um lado, parte do “truque” da IA é falar com um tom autoritário. Em quem vai acreditar: no chatbot que usa o dia inteiro ou num bibliotecário qualquer ao telefone? O outro problema pode estar relacionado com o facto de as pessoas acharem que encontraram truques para tornar a IA mais fiável.

Por exemplo, há quem pense, inocentemente, que acrescentar ao pedido instruções como “não alucines” e “escreve código limpo” garante por si só que a IA apenas nos vai dar dá resultados da mais alta qualidade. Se isso funcionasse mesmo, é de imaginar que o Google e a OpenAI já o teriam acrescentado automaticamente a todos os pedidos dos seus chatbots.

Mas, claro, isso é pedir a um mentiroso compulsivo que, por especial favor, só desta vez, não nos minta.

(ZAP)