A Federal Trade Commission (FTC), a agência norte-americana de proteção do consumidor, anunciou uma investigação formal a sete empresas tecnológicas de topo devido aos seus chatbots de Inteligência Artificial (IA) que funcionam como companheiros virtuais. O objetivo é analisar o impacto destas tecnologias em crianças e adolescentes, numa altura em que crescem as preocupações sobre a sua segurança.
Para já, esta investigação não resulta em nenhuma ação regulatória imediata. O principal objetivo, segundo a agência, é perceber como é que estas empresas medem, testam e monitorizam os possíveis efeitos negativos desta tecnologia junto dos utilizadores mais jovens.
O que motivou a investigação?
A decisão da FTC surge na sequência de reportagens publicadas por meios como o The New York Times e o Wall Street Journal, que expuseram casos preocupantes de chatbots a intensificar pensamentos suicidas e a manter conversas de cariz sexual com menores de idade.
Num comunicado de imprensa oficial, o comissário da FTC, Mark Meador, foi claro: “Se os factos (…) indicarem que a lei foi violada, a Comissão não hesitará em agir para proteger os mais vulneráveis entre nós”. A segurança dos jovens utilizadores está no centro das atenções.
Sete gigantes da tecnologia na mira da FTC
A lista de empresas notificadas pela agência inclui alguns dos maiores nomes da indústria tecnológica. São elas a Alphabet (empresa-mãe da Google), a Character Technologies (criadora do popular Character.AI), a Meta e a sua subsidiária Instagram, a OpenAI, a Snap e, por fim, a xAI, de Elon Musk.
Estas empresas terão de fornecer um vasto conjunto de informações sobre as suas operações e políticas de segurança.
O que a FTC quer saber?
A investigação foca-se em vários pontos críticos. A FTC quer perceber como as empresas desenvolvem e aprovam as “personagens” de IA, de que forma monetizam a interação dos utilizadores e quais são as suas práticas de gestão de dados.
Um dos aspetos centrais é a proteção de utilizadores menores de idade e a verificação do cumprimento da Lei de Proteção da Privacidade Online das Crianças (Children’s Online Privacy Protection Act Rule).
Um escrutínio cada vez maior sobre a IA
Esta medida da FTC não é um caso isolado. Surge numa altura em que os benefícios de produtividade da IA a longo prazo são cada vez mais questionados, enquanto os seus impactos negativos na privacidade e saúde mental ganham destaque.
Recorde-se que o Procurador-Geral do Texas já tinha lançado uma investigação separada à Character.AI e ao Meta AI Studio por preocupações semelhantes, incluindo a forma como os chatbots se apresentam como profissionais de saúde mental.
(TT)