O risco de confiar segredos pessoais ao ChatGPT

By | 01/01/2024

Se você perguntar ao ChatGPT o que ele faz com os dados pessoais que alguém contribui na conversa, esta é a resposta: “Como modelo de linguagem desenvolvido pela OpenAI, não tenho a capacidade de processar, armazenar ou usar as informações pessoais dos usuários, a menos que fornecido a mim no decorrer de uma conversa individual.” No entanto, a OpenAI, empresa proprietária do ChatGPT, pode usar essas informações em determinados casos, de acordo com a política de privacidade da empresa .

São um tipo específico de dados e apenas para alguns casos. Devem ser dados da conta OpenAI, como nome do usuário ou informações do cartão de pagamento, informações pessoais que o usuário troca com ChatGPT ou a empresa, informações do usuário ao interagir com contas OpenAI em redes sociais, como Instagram, Facebook, Medium, Twitter, YouTube e LinkedIn ou dados que o usuário fornece à empresa em suas pesquisas ou eventos. Com essas informações, a empresa pode melhorar seus produtos e serviços, criar novos desenvolvimentos, realizar pesquisas, estabelecer comunicação direta com os usuários, cumprir obrigações legais em favor da empresa e prevenir fraudes, uso indevido do serviço e atividades criminosas.

ChatGPT

Esta questão delicada não afeta apenas a nova IA generativa. Enviar um e-mail via Gmail para um amigo, ou compartilhar fotos ou documentos em espaços de nuvem como o OneDrive, são atos cotidianos que autorizam os provedores desses serviços a compartilhar informações com terceiros . Empresas como OpenAI, Microsoft e Google podem divulgar informações a prestadores de serviços para atender às suas necessidades comerciais, conforme indicado nas suas políticas de privacidade.

No entanto, com algumas exceções, as empresas não podem utilizar dados pessoais para outros fins. Ricard Martínez, professor de direito constitucional na Universidade de Valência, destaca que é estritamente proibido pelo Regulamento Geral de Proteção de Dados (RGPD): “Expõem-se a um elevado risco regulatório. A empresa poderá ser sancionada com uma multa equivalente a 4% do volume de negócios anual global.” Nestes casos, só poderão ser utilizados para fins de interesse público admitidos pela regulamentação, como arquivo ou investigação histórica, estatística ou científica, ou caso seja proferida sentença de compatibilidade.”

A inteligência artificial generativa, como o ChatGPT, é alimentada por um grande volume de dados, alguns deles pessoais, e a partir dessas informações gera conteúdo original. Na Espanha, essas ferramentas recebem 377 milhões de visitas por ano, segundo um estudo . Eles analisam as informações coletadas, respondem às dúvidas dos usuários e melhoram o atendimento, apesar de a ferramenta “não compreender os documentos que alimenta”, alerta Borja Adsuara, advogado especialista em direito digital.

Recomendação: seja muito discreto com chatbots

A Agência Espanhola de Proteção de Dados (AEPD) sugere que os usuários não aceitem que o chatbot solicite dados cadastrais desnecessários; que solicite consentimento sem definir para que serão tratados os dados e sem permitir que sejam retirados a qualquer momento, ou que faça transferências para países que não oferecem garantias suficientes. Recomenda ainda “limitar os dados pessoais expostos, não ceder dados pessoais de terceiros se houver dúvidas de que o tratamento transcenderá a esfera doméstica e tendo em conta que não há garantias de que a informação prestada pelo chatbot seja correta”. ” As consequências são “danos emocionais, desinformação ou engano”.

Os especialistas concordam com o mesmo conselho: não compartilhe informações pessoais com a ferramenta de inteligência artificial. Até o próprio ChatGPT alerta: “Observe que se você compartilhar informações pessoais, sensíveis ou confidenciais durante a conversa, você deve ter cautela. “É recomendado não fornecer informações sensíveis através de plataformas online, mesmo em conversas com modelos linguísticos como eu.”

Excluir dados pessoais

Se, apesar destas recomendações, os dados pessoais já foram partilhados com uma inteligência artificial, pode tentar apagá-los. Existe um formulário no site da OpenAI para removê-los: a má notícia é que a empresa alerta que “enviar uma solicitação não garante que informações sobre você serão removidas dos resultados do ChatGPT”. Deve ser preenchido com os dados reais do interessado, que deverá “jurar” por escrito a veracidade do que é afirmado . Além disso, as informações do formulário podem ser cruzadas com outras fontes para verificar sua veracidade. A Microsoft também oferece um painel de privacidade para acessar e excluir dados pessoais.

Através de ação judicial, Martínez explica que o usuário “pode exercer o direito de exclusão, caso acredite que os dados pessoais foram tratados ilicitamente, são incorretos e inadequados. Você pode cancelar a assinatura, retirar o seu consentimento, que é gratuito e não sujeito a condições, e a empresa é obrigada a excluir todas as informações.” Este especialista sublinha ainda que existe direito à portabilidade: “Cada vez mais aplicações permitem ao utilizador descarregar todo o seu histórico e levá-lo consigo num formato compatível. O regulamento também recomenda a anonimização dos dados pessoais.”

A anonimização, segundo a AEPD, consiste na conversão de dados pessoais em dados que não podem ser utilizados para identificar qualquer pessoa. Em seu guia sobre processamento de inteligência artificial (IA), a agência explica que o anonimato é uma das técnicas para minimizar o uso de dados, garantindo que sejam utilizados apenas os dados necessários para determinada finalidade.

Nova lei de inteligência artificial

As empresas que gerem dados pessoais, após a entrada em vigor da nova lei europeia sobre inteligência artificial, terão de ter em conta três chaves, como explicou a este jornal a consultora Entelgy : terão de revelar como funciona o algoritmo e o conteúdo que gera num registo europeu; Embora não seja obrigatório, recomenda-se estabelecer mecanismos de supervisão humana; Finalmente, os grandes modelos de linguagem (LLMs) terão de introduzir sistemas de segurança e os desenvolvedores terão a obrigação de ser transparentes sobre o material protegido por direitos autorais que utilizam.

Contudo, a nova regra não é incompatível com o Regulamento Geral de Proteção de Dados. É assim que Martínez explica: “A IA que processa dados pessoais, ou que gera dados pessoais no futuro, nunca poderá chegar ao mercado se não garantir o cumprimento do RGPD. Isto é especialmente evidente em sistemas de alto risco, que devem implementar um modelo de governança de dados, bem como registos de operação e utilização que garantam a rastreabilidade.”

O próximo passo para a inteligência artificial, diz Adsuara, é que as informações pessoais coletadas possam ser utilizadas em uma espécie de pool pessoal: “Um local onde cada um tem seu repositório de documentos com dados pessoais, mas a informação não sai daqui, é não é usado para alimentar a inteligência artificial generativa universal”, explica ele.

(ELPAISTec)