Uma investigação revela como o rastreio padrão de publicidade na web já se infiltrou no ChatGPT, Claude e Grok.
Em poucos anos, os chatbots de IA tornaram-se parte essencial da internet. Com a sua utilização generalizada, surgiu também o pecado original da privacidade: a publicidade e o rastreio para melhor compreender os gostos e desgostos de cada utilizador. Uma nova pesquisa revela que a ChatGPT, a Claude, a Grok e a Perplexity utilizam diferentes tipos de rastreadores da Meta, Google, TikTok e outras empresas. Estas ferramentas monitorizam a nossa navegação na web para saber mais sobre nós; agora, terão também diferentes graus de acesso aos nossos chats privados com a IA.
“Os modelos de linguagem vão transformar a forma como as pessoas interagem com os serviços online e realizam as suas tarefas diárias, trabalham ou fazem compras”, afirma Narseo Vallina, investigador da IMDEA Networks e um dos coautores do estudo. “Os nossos resultados sugerem que, embora os modelos de monetização ainda estejam em evolução, os fornecedores de IA estão a adotar os modelos de negócio tradicionais de tecnologia de publicidade”, acrescenta.
O maior risco descoberto pela investigação é a disponibilidade de links para conversas completas, palavra por palavra, do Grok e do Perplexity. As informações recolhidas pelas empresas de publicidade com acesso a estes chatbots incluem uma riqueza de detalhes. Um deles é o link da conversa. Em alguns casos, qualquer pessoa com acesso a este link tinha acesso a toda a conversa, não apenas ao título ou a outros detalhes, o que é mais comum: “No Grok e no Perplexity, até 3 de abril, estes links eram públicos por defeito [nesta data, foi iniciado um processo contra o Perplexity nos EUA precisamente por instalar trackers que transmitem as conversas dos utilizadores para o Meta e o Google em tempo real], pelo que qualquer pessoa que soubesse o URL poderia ler toda a troca de mensagens, uma vez que não existia um mecanismo de controlo de acesso. Não temos provas de que terceiros tenham lido o conteúdo das conversas, mas o risco existe”, explica Guillermo Suárez-Tangil, também coautor e investigador da Imdea Networks.
Nem todos os chatbots representam o mesmo nível de risco. O ChatGPT e o Claude partilham informações com terceiros, como o título de cada conversa, o que também revela detalhes sobre a intenção da consulta, como questões médicas, fiscais ou jurídicas. O EL PAÍS solicitou à OpenAI, Anthropic, Perplexity e xAI uma reação a este inquérito, mas ainda não obteve resposta.
Estas ferramentas de rastreio são extremamente comuns e construíram o modelo de negócio mais bem-sucedido da internet como a conhecemos. Agora, a sua intrusão nos chatbots de IA, que precisam desesperadamente de mais receitas, é um enorme sinal de alerta: com o que dizemos à IA, o nível de acesso às nossas vidas privadas e a personalização de anúncios aumentarão significativamente. Como tudo é tão novo e se move tão rapidamente, a preocupação e a investigação sobre a ameaça à privacidade têm sido escassas até agora: “Isto deve-se em parte ao facto de a tecnologia ser realmente nova e a sensibilização para os riscos não ter acompanhado o ritmo”, diz Aniketh Girish, coautora e investigadora da Imdea Networks. “É em parte da natureza humana: tendemos a confiar em ferramentas que parecem úteis e familiares. As pessoas subestimam o risco porque a interface se parece com uma conversa e não com uma página web. Mas, no fundo, é a mesma infraestrutura de publicidade que nos rastreia há 20 anos”, acrescenta.
Este risco precisa de ser analisado ainda mais de perto na Europa, onde o Regulamento Geral sobre a Proteção de Dados (RGPD) protege os utilizadores deste tipo de abusos: “A UE impõe uma forma muito específica de informar os utilizadores, especialmente em relação ao tratamento complexo de dados como este”, afirma o advogado Jorge García Herrero, que colaborou na investigação. “Estas quatro empresas, em vez de cumprirem a lei, abusam da complexidade das suas políticas de privacidade para nos sobrecarregar com textos longos e conceitos genéricos, omitindo o ponto crucial: que estão a fornecer aos gigantes da publicidade personalizada os tópicos das nossas conversas com os seus chats de IA e, em alguns casos, o texto completo”, acrescenta.
Na UE, a situação é ainda pior.
García Herrero acredita que o alerta de que a nossa informação mais íntima pode cair nas mãos da indústria publicitária merece a mesma importância que a omnipresente mensagem “A IA comete erros”, que surge em todos os chats para mitigar a responsabilidade caso as respostas sejam incorretas.
Os investigadores ainda não analisaram a IA de empresas como a Meta ou a Google porque já têm ferramentas de análise e publicidade e, ao mesmo tempo, acesso aos chats. “Sempre foi claro que o próprio fornecedor de IA processa as suas conversas, o que é necessário para o funcionamento do serviço. O que a nossa pesquisa mostra é que as empresas de publicidade de terceiros, como a Meta e a TikTok, também recebem dados ligados a estas conversas”, afirma Suárez-Tangil. Quando o Google recolhe dados através do Gmail ou do Gemini, é o proprietário do serviço. O que a investigação descobriu, neste caso, é diferente: os rastreadores de terceiros estão integrados em plataformas de IA que não lhes pertencem, permitindo-lhes observar dados sensíveis de outros utilizadores.
(Elpais)
