IA da Deloitte alucinou. Dinheiro pago por relatório cheio de erros devolvido ao governo australiano

By | 05/11/2025

A Deloitte Austrália vai reembolsar parte dos 250 mil euros pagos pelo governo do país por um relatório gerado por IA — que, sem surpresa, se encontrava repleto de erros, imprecisões e informação simplesmente inventada.

O reembolso da Deloitte à Austrália devido a um relatório cheio de erros ou a famosa entrevista ‘fabricada’ de Michael Schumacher, em ambos os casos envolvendo IA, são exemplos de uma tendência que aumenta à medida que a tecnologia avança.

Recentemente, em Portugal, a Google teve de corrigir os conteúdos falsos sobre quem era Anabela Natário, depois de a jornalista e escritora ter feito queixa à tecnológica, mas os erros sobre a informação errada ou falsa resultante da inteligência artificial já têm histórico em várias partes do mundo.

A mais recente, do início de outubro, dá conta de que a Deloitte Austrália vai reembolsar parte dos os 440.000 dólares australianos, cerca de 250 mil euros, pagos pelo Governo australiano por um relatório repleto de erros, que aparentemente terão sido gerados por IA.

Entre os erros apontados inclui-se uma citação falsa de uma sentença judicial federal e referências a artigos de pesquisa académica inexistentes, noticia a Associated Press.

A tendência dos sistemas de IA generativa fabricarem informação é designada por alucinação.

Após a denúncia dos erros, a consultora publicou uma versão revista, do relatório, na qual foi incluída a informação de que um sistema de linguagem IA generativa, o Azure OpenAI, tinha sido usado na elaboração do relatório — embora, segundo os responsáveis, a “substância” do mesmo se tenha mantido.

Um dos casos mais conhecidos é o da entrevista falsa de IA a Schumacher, publicada pela revista alemã Aktuelle em 2023.

A revista publicou na sua capa, em abril de 2023, a frase: “Michael Schumacher, a primeira entrevista!”, escrevendo ainda: “Parece enganosamente real“, com as alegadas declarações de Schumacher geradas por IA.

Mais de um ano depois, em 23 de maio de 2024, a família do piloto anunciou que tinha ganhado o processo contra a editora da revista. A porta-voz da família, Sabine Kehm, confirmou à AP que a ação judicial tinha sido bem-sucedida.

A indemnização terá sido de 200 mil euros e a ‘publisher’ alemã Funke Magazines, além de ter pedido desculpas à família, despediu a responsável da revista.

Um dos primeiros casos a fazer notícia data de abril de 2023, quando um autarca australiano anunciou que iria avançar com uma ação judicial por difamação devido a informações falsas partilhadas pelo ChatGPT, no que a Reuters classificou na altura como um dos primeiros casos judiciais do género com conteúdos do modelo de IA da OpenAI.

De acordo com a BBC, Brian Hood, presidente de Hepburn Shire, em Victoria, Austrália, afirmou que a IA alegou falsamente que tinha sido detido por suborno enquanto trabalhava para uma subsidiária do banco nacional da Austrália, quando, na verdade, foi denunciante e nunca foi acusado de qualquer crime.

Este caso chamou a atenção para o problema das alucinações na IA generativa, em que o sistema produz informação verosímil, mas factualmente incorreta, e levantou questões legais sobre a responsabilidade das empresas donas destes modelos de IA e pelo seu conteúdo.

Mais recentemente, em abril deste ano, o ativista conservador Robby Starbuck interpôs um processo por difamação contra a Meta, alegando que o ‘chatbot’ de inteligência artificial da gigante das redes sociais Facebook e Instagram disseminou declarações falsas sobre si, incluindo a de que teria participado no tumulto no Capitólio dos Estados Unidos em 6 de janeiro de 2021.

A 22 de outubro, Starbuck avançou também com um processo de difamação contra a ferramenta de IA da Google que o ligou a acusações de agressão sexual e outras falsidades, de acordo com o The Wall Street Journal.

O caso da entrevista de Schumacher difere no entanto dos restantes num aspeto fundamental. Nestes últimos, emergiu informação falsa resultante de alucinações da IA, sem que tenha havido premeditação humana na propagação dos erros.

Já no primeiro, uma editora entendeu que era inteligente usar IA para gerar uma entrevista falsa. Será caso para dizer que a IA até parece ter desta vez feito bem o seu trabalho — e que a editora alucinou.

(ZAP // Lusa)