FTC investiga chatbots de IA da Google, Meta e OpenAI por riscos para os mais novos

By | 14/09/2025

A Federal Trade Commission (FTC), a agência norte-americana de proteção do consumidor, anunciou uma investigação formal a sete empresas tecnológicas de topo devido aos seus chatbots de Inteligência Artificial (IA) que funcionam como companheiros virtuais. O objetivo é analisar o impacto destas tecnologias em crianças e adolescentes, numa altura em que crescem as preocupações sobre a sua segurança.

Para já, esta investigação não resulta em nenhuma ação regulatória imediata. O principal objetivo, segundo a agência, é perceber como é que estas empresas medem, testam e monitorizam os possíveis efeitos negativos desta tecnologia junto dos utilizadores mais jovens.

O que motivou a investigação?

A decisão da FTC surge na sequência de reportagens publicadas por meios como o The New York Times e o Wall Street Journal, que expuseram casos preocupantes de chatbots a intensificar pensamentos suicidas e a manter conversas de cariz sexual com menores de idade.

Num comunicado de imprensa oficial, o comissário da FTC, Mark Meador, foi claro: “Se os factos (…) indicarem que a lei foi violada, a Comissão não hesitará em agir para proteger os mais vulneráveis entre nós”. A segurança dos jovens utilizadores está no centro das atenções.

Sete gigantes da tecnologia na mira da FTC

A lista de empresas notificadas pela agência inclui alguns dos maiores nomes da indústria tecnológica. São elas a Alphabet (empresa-mãe da Google), a Character Technologies (criadora do popular Character.AI), a Meta e a sua subsidiária Instagram, a OpenAI, a Snap e, por fim, a xAI, de Elon Musk.

Estas empresas terão de fornecer um vasto conjunto de informações sobre as suas operações e políticas de segurança.

O que a FTC quer saber?

A investigação foca-se em vários pontos críticos. A FTC quer perceber como as empresas desenvolvem e aprovam as “personagens” de IA, de que forma monetizam a interação dos utilizadores e quais são as suas práticas de gestão de dados.

Um dos aspetos centrais é a proteção de utilizadores menores de idade e a verificação do cumprimento da Lei de Proteção da Privacidade Online das Crianças (Children’s Online Privacy Protection Act Rule).

Um escrutínio cada vez maior sobre a IA

Esta medida da FTC não é um caso isolado. Surge numa altura em que os benefícios de produtividade da IA a longo prazo são cada vez mais questionados, enquanto os seus impactos negativos na privacidade e saúde mental ganham destaque.

Recorde-se que o Procurador-Geral do Texas já tinha lançado uma investigação separada à Character.AI e ao Meta AI Studio por preocupações semelhantes, incluindo a forma como os chatbots se apresentam como profissionais de saúde mental.

(TT)