Esta semana, a Google apresentou a sua tão ambicionada alternativa ao ChatGPT. Em causa, a apresentação do Bard AI, uma ferramenta de Inteligência Artificial concebida para oferecer uma alternativa viável ao produto da OpenAI.
Aquando da sua apresentação, a Google deu uma pequena amostra das potencialidades da sua nova ferramenta de IA. Contudo, essa amostra chegou com um pequeno erro prontamente apontado por especialistas da área da astronomia.
Google Bard AI dá uma resposta errada logo na sua primeira demonstração
O GIF que podes ver acima deu o mote para a primeira controvérsia a envolver o Bard AI. Nele podemos ver a nova ferramenta de Inteligência Artificial a elencar as novas descobertas do telescópio James Webb de modo que uma criança de nove anos consiga compreender.
No último ponto, o Bard AI refere que foi este telescópio espacial o primeiro a tirar uma fotografia de um planeta fora do nosso sistema solar. Como rapidamente vários astrónomos apontaram no Twitter, esta afirmação não está correta.
Tomemos como exemplo a educada reposta do astrofísico Grant Tremblay que refere que essa efeméride foi alcançada em 2004 por Chauvin. Ou seja, ocorreu muito antes de o James Webb ter sido criado.
Obviamente, esta não é a primeira impressão que a Google desejava que a sua nova ferramenta deixasse no mercado. Uma ferramenta que deveria ser pautada por respostas credíveis e baseadas em informação correta.
Incidente custou 100 milhões de dólares à Google
Como não poderia deixar de ser, esta controvérsia impactou negativamente as finanças da Google. Após o incidente, a cotação em bolsa da Google caiu 8%, o que significou uma perda de 100 milhões de dólares em valorização de mercado.
Falamos de um abalo financeiro ao qual poucas empresas no mundo conseguem sobreviver. Felizmente, a Google não se enquadra nesse cenário, mas o caso demonstra como uma simples resposta influencia bem mais que a confiança dos utilizadores nos seus serviços.
Face ao sucedido, um porta-voz da Google prestou as seguintes declarações ao The Verge:
“Isso destaca a importância de um processo de teste rigoroso, algo que iniciamos esta semana com o nosso programa Trusted Tester. Combinaremos feedback externo com os nossos próprios testes internos para garantir que as respostas do Bard atendam a um alto padrão de qualidade, segurança e fundamentação em informações reais.”
Este é um caso que deve servir de alerta para não confiares cegamente em toda a informação fornecida por este tipo de ferramentas. A verificação dos factos fornecidos é uma prática francamente aconselhada.
(4gnews)