Despidas pela IA: a internet como espaço de perpetuação machista

By | 19/04/2026

Se antes a partilha não consensual de imagens íntimas dependia de uma fotografia real, com a evolução de tecnologias de IA deixou de ser necessário. À medida que a tecnologia avança, os perigos de exposição (sobretudo para mulheres) aumentam. Neste artigo de análise, especialistas de vários países alertam para uma situação que já está fora de controlo.

Durante anos, o debate em torno da violência digital centrou-se na partilha não consentida de nudes. Fotografias íntimas, muitas vezes divulgadas por pessoas próximas, circulavam rapidamente entre telemóveis, sobretudo em contextos escolares, e marcavam quem aparecia nelas. As consequências recaíam quase sempre sobre a vítima: vergonha, isolamento social, por vezes até mudar de escola. Porém, quem tirava ou partilhava a imagem raramente era impactado.

Hoje, as consequências continuam a cair para o mesmo lado e persistem as mesmas questões sobre responsabilidade direta e indireta, de quem tira, partilha ou só vê as fotos. Mas agora a violência tornou-se mais simples e já não precisa de uma imagem real. Uma fotografia banal, retirada das redes sociais, e apenas vinte e cinco minutos são suficientes para criar um deepfake pornográfico de qualquer pessoa. A Inteligência Artificial tem a capacidade de despir imagens e reconstruir um corpo nu, moldado ao rosto da vítima e aos desejos de quem controla a tecnologia.

Segundo dados do CEE Digital Democracy Watch, 96% dos vídeos sintéticos online são de teor sexual e, em 99% dos casos, com mulheres. Isto não acontece por acaso: é o resultado dos modelos de IA treinados quase exclusivamente com corpos femininos.

Porém, este não é um fenómeno novo; muitos espaços da internet são impulsionados pela circulação de conteúdo misógino. Primeiro, surgiram os sites pornográficos e fóruns, depois as redes sociais e aplicações de mensagens onde milhares de utilizadores trocam fotografias não consentidas. Uma investigação jornalística conduzida pela jornalista Mariana Durães, publicada em 2024 no Público, revelou a existência de um canal de Telegram português, com cerca de 70 mil participantes dedicado à partilha de imagens ilegais de mulheres.

A própria origem do termo “deepfake” ajuda a perceber a base sexista da tecnologia. A expressão surgiu no Reddit, em 2017, criada por um utilizador com o mesmo nome, que gerava vídeos pornográficos manipulados com rostos de celebridades como Gal Gadot ou Taylor Swift. Em pouco tempo, o subreddit somou milhares de utilizadores; um deles criou o FakeApp, uma das primeiras aplicações populares para a criação de deepporn.

O facto de ainda atualmente continuarmos a usar a expressão “deepfake” levanta discussões. Alguns ativistas não se revêem na utilização de um termo criado por alguém que explorava esta tecnologia, atribuindo-lhe, ainda que indiretamente, crédito. Além disso, sendo um nome que nasce da pornografia não consentida, ao tornar-se técnico e neutro, acaba por branquear a sua origem.

Com o surgimento destes conteúdos, o medo da violência digital intensificou-se e já leva muitas mulheres a limitar a participação nos espaços online. Estudos mostram que as mulheres tendem a ser mais cautelosas sobre a IA e a adotar ferramentas em menor escala do que os homens, em grande parte devido à perceção de risco e exposição. Isto pode resultar em novas desigualdades digitais, quer no acesso à tecnologia, quer na capacidade de contribuir para o seu desenvolvimento.

Longe de ser um erro

O tema intensificou-se na discussão pública quando, em janeiro deste ano, o Grok, chatbot da rede social X, de Elon Musk, gerou imagens explícitas, incluindo de menores, em resposta a simples comandos dos utilizadores, tais como “põe-na em biquíni” ou “tira-lhe a roupa”. As fotografias eram partilhadas no feed da rede social, à vista de todos os utilizadores, no meio de tantas outras publicações que aparecem a fazer scroll.

Em reação à polémica, o X limitou o acesso às funcionalidades apenas a subscritores pagos, numa abordagem que, segundo Mateusz Łabuz, investigador do CEE Digital Democracy Watch e do Instituto de Investigação para a Paz e Política de Segurança da Universidade de Hamburgo, “não reduz o dano, apenas o monetiza”. O caso do Grok foi “um excelente exemplo de abuso das plataformas para criar imagens explícitas, sobretudo de mulheres, que são maioritariamente visadas por deepfakes deste tipo”, explica Łabuz.

“Vimos Elon Musk a rir-se das vítimas e a colocar uma fotografia sua em biquíni para dizer ‘isto não é assim tão grave’, quando aquilo que sabemos, a partir das experiências das vítimas de violência online, é que sofrem exatamente as mesmas consequências das vítimas de abusos sexuais baseados em imagens reais”, relata a investigadora digital e autora do livro Internet is Not a Safe Place for Women, Silvia Semenzin.

O episódio não é um caso isolado do comportamento de Musk, alvo de várias acusações de conduta sexual imprópria. Em 2022, foi noticiado que a SpaceX pagou 250 mil dólares para resolver uma queixa de assédio sexual por parte de uma assistente de bordo. Também em 2024, antigos funcionários processaram a empresa, denunciando um ambiente de trabalho marcado por assédio e retaliação. Porém, Musk negou as acusações e classificou-as como falsas ou politicamente motivadas.

Em março deste ano a polémica ganhou uma nova dimensão quando várias adolescentes processaram a empresa de Musk, a xAI. Segundo a imputação, um único agressor terá manipulado imagens de mais de uma dezena de raparigas, muitas delas da mesma escola, gerando conteúdo que causou ansiedade, pânico e dificuldades em frequentar as aulas. O processo acusa ainda a empresa de não ter implementado salvaguardas suficientes e de permitir que a tecnologia seja usada para produzir e disseminar material sexual não consentido, incluindo de menores.

Nuas sem existir

Um dos motivos de alerta é a proliferação das chamadas“nudify apps”, aplicações que removem digitalmente a roupa de uma pessoa a partir de uma fotografia comum, e a preocupação dos especialistas centra-se na dissolução da barreira técnica. Como explica Łabuz, já não são necessárias competências avançadas de edição de imagem para criar conteúdo falso. Agora, está ao alcance de cada um, basta carregar uma imagem, escrever um comando e a IA concede o desejo.

“Algumas ‘nudify apps’ estimam as características corporais e imaginam como a pessoa parece nua”, acrescenta o investigador. “As ferramentas analisam milhares de imagens explícitas diferentes, a IA tem a ideia de como é o corpo humano nu e consegue adaptar-se às características específicas de cada um. Assim, uma simples fotografia do teu rosto pode ser usada como base para gerar conteúdo explícito.”

Neste contexto, vários investigadores e ativistas falam numa espécie de segunda violência, pois mesmo quando a imagem nunca existiu, a tecnologia cria uma versão sexualizada da pessoa, retirando-lhe controlo sobre o próprio corpo. Como Laura Bates, autora do livro The New Age of Sexism: How the AI Revolution is Reinventing Misogyny, escreveu no The Guardian, em muitos espaços online, os homens podem “criar, partilhar e usar imagens íntimas falsas como arma para aterrorizar mulheres e raparigas”, sendo que a inteligência artificial generativa “tem demonstrado reproduzir e amplificar misoginia”.

Também o facto de se tratar de conteúdo sintético não reduz a agressão que as vítimas sofrem. Pelo contrário. Segundo a ONU, em muitos casos os relatos das mulheres são postos em causa, e vêem-se obrigadas a provar que não se trata de fotografias reais. Ficam assim sujeitas à exposição pública e ao questionamento da sua palavra.

Apesar de já terem sido ordenadas a sair das app stores na Europa, em janeiro deste ano, dezenas de “nudify apps” continuavam disponíveis. Outras circulam longe dos olhos dos reguladores, “nas comunidades do Reddit e na darknet encontram-se instruções claras sobre como utilizar as aplicações, desde como descarregá-las, usá-las e até melhorá-las”, diz Łabuz.

A dimensão global do fenómeno tornou-se evidente quando um dos principais responsáveis pelo site MrDeepfakes, uma das maiores plataformas dedicadas à criação e partilha de deepporn, passou por Portugal durante uma fuga às autoridades em 2025.

Todas, sem exceção

O número de mulheres vítimas destas aplicações compõe uma lista extensa. É difícil encontrar celebridades femininas que não tenham sido alvo. Millie Bobby Brown, Taylor Swift, Giorgia Meloni são apenas alguns dos nomes mais conhecidos. Também a atual eurodeputada grega Eleonora Meleti partilhou a sua história no Parlamento Europeu como vítima de uma nudify app. Depois de consultar o seu advogado, deparou-se com a frustração legal que envolve a maioria destes processos: “Não há nada que possamos fazer”, foi-lhe dito.

O caso da surfista portuguesa Mariana Rocha Assis também ilustra isso de forma clara. Aos 26 anos, recebeu imagens geradas por inteligência artificial onde aparecia nua. “Tenho passado por um inferno emocional”, escreveu numa publicação na sua conta de Instagram, em novembro de 2023. Seguiu-se a extorsão: um pedido de cinco mil euros sob ameaça de envio das imagens à família, amigos e parceiros profissionais. “Perdi muito dinheiro, vou ter fotos minhas a circular online. E o mais assustador é que está a acontecer com muita gente”, contou na mesma publicação.

Andrea Powell, co-fundadora da June Coalition

No entanto, ao contrário do que se podia esperar dado o maior número das vítimas de deepfakes serem mulheres, este tipo de chantagem parece ser mais frequente entre homens. Segundo Inês Marinho, fundadora da associação Não Partilhes, há diferenças nos padrões da violência online. “Recebo muito mais homens em situações de extorsão sexual”, explica. “São esquemas organizados, em que contas se fazem passar por mulheres e iniciam conversas de teor sexual. Muitas vezes enviam imagens falsas, deepfakes, para criar confiança.”

A partir daí, o processo acelera: “Assim que a pessoa envia alguma coisa, começa logo a ameaça. Tiram prints da família, dos amigos e dizem: ou pagas, ou enviamos isto a toda a gente”, conta Inês Marinho. Muitos acabam por pagar e entram num ciclo difícil de sair, onde os criminosos continuam a chantagem.

A partir dos relatos recebidos pela Não Partilhes é possível entender que, ao contrário dos homens, mais vezes alvo de redes organizadas, as mulheres são frequentemente vítimas de pessoas próximas ou que já tiveram acesso a imagens reais.

Se no início os visados eram sobretudo pessoas famosas, hoje multiplicam-se as situações entre adolescentes. Muitas das vítimas são anónimas e os abusos acontecem em espaços como escolas. Segundo Andrea Powell, co-fundadora da organização norte-americana June Coalition, liderada por sobreviventes de abusos sexuais baseados em imagens não consentidas, o perfil das vítimas está a mudar.

“Estamos a ouvir relatos em todo o país, e também na Europa, de raparigas adolescentes que são alvo de deepfakes criados por colegas”, explica numa entrevista por videochamada ao Shifter. Em muitos casos, acrescenta, os próprios agressores são jovens de 12 ou 13 anos que descarregam uma aplicação, criam a imagem “no intervalo do almoço” e partilham-na em grupos privados. 

A nível europeu, a regulação ainda não acompanha a tecnologia. O AI Act exige que conteúdos gerados por inteligência artificial sejam identificados, por exemplo, com marcas de água, mas não proíbe sistemas capazes de criar imagens sexualizadas não consentidas. Perante isso, alguns eurodeputados defendem que a rotulagem não é suficiente para proteger as vítimas e já há propostas na mesa para proibir o uso não consentido dessas ferramentas. O Parlamento Europeu votou favoravelmente a limitação da produção de deepnudes sem autorização da pessoa visada, porém fica na mão das plataformas decidir como verificar o consentimento .

Enquanto em Bruxelas o debate vai aceso, em Portugal a dimensão do fenómeno ainda é difícil de medir. Não existem dados oficiais específicos sobre imagens explícitas geradas por IA, já que estes casos acabam por ser enquadrados em crimes como difamação, devassa da vida privada ou extorsão, sem distinção clara. “Não há um levantamento geral, porque a PJ também não lança dados explícitos”, explica a fundadora da associação Não Partilhes. “É muito difícil perceber qual é a dimensão da situação.”

A Inspetora-Chefe da Polícia Judiciária Carla Costa explica ao Shifter que, em Portugal, o crime enquadra-se sobretudo em “devassa da vida privada e de devassa através de meio de comunicação social, da Internet ou de outros meios de difusão pública generalizada” e acrescenta, sobre a falta de números concretos, que “a forma como os dados são introduzidos não permite extrair informação exclusiva sobre a partilha não consentida de imagens íntimas geradas por inteligência artificial, “deepfakes” pornográficos ou conteúdos do tipo “deepnude”.

Além da ambiguidade legal, as vítimas alegam enfrentar obstáculos na própria apresentação de queixa. “A experiência que tenho mostra que as pessoas não são recebidas da melhor maneira”, afirma Inês Marinho. “Não tanto na PJ, mas mais na PSP e na GNR”, continua. “Dizem que não é crime, que não vai dar em nada, que não vale a pena.”

Sobre os procedimentos na PJ, a inspetora da Unidade Nacional de Combate ao Cibercrime e Criminalidade Tecnológica da Polícia Judiciária afirma que os inspetores têm formação para “receber as vítimas com dignidade e evitar situações de revitimização” e afirma não ter registo de má conduta por parte dos agentes. “Nunca me foram reportadas situações referentes à falta de seriedade aquando da apresentação de denúncias”.

Também as autoridades enfrentam novos desafios com a proliferação de conteúdos sintéticos. Em muitos casos, é difícil distinguir entre as fotografias e vídeos reais e os gerados por inteligência artificial. Perante essa incerteza, os investigadores são obrigados a tratar todos os casos como verdadeiros, pois não o fazer implicaria correr o risco de ignorar vítimas de abusos, em muitos casos menores. “O volume está a explodir”, alerta Łabuz. “Os investigadores estão sobrecarregados, e isso significa que vítimas reais correm o risco de ser ignoradas.” 

A evolução da qualidade da IA torna cada vez mais difícil a identificação de conteúdos sintéticos. “É necessário efetuar uma análise mais exaustiva, de forma a comprovar a adulteração da imagem”, afirma a Inspetora Carla Costa. “Uma investigação não pode presumir que uma imagem, vídeo ou áudio é real só porque tem ruído, metadados ou aparência compatível com captação convencional”.

Parar a partilha online destes conteúdos é particularmente difícil. Enquanto as imagens sintéticas são fáceis de criar, é extremamente complexo apagar o seu rasto digital. Assim que começam a circular online, multiplicam-se. Mesmo quando removidas de uma plataforma, podem já ter sido partilhadas noutros espaços, numa corrida entre quem quer eliminar o conteúdo e quem o volta a publicar. “A remoção raramente é ‘total’: podem existir cópias, novos uploads, partilhas e repartilhas dos conteúdos íntimos”, alerta a Inspetora.

O processo de remoção é demorado e as consequências podem prolongar-se durante anos. As imagens reaparecem e perseguem as vítimas ao longo da vida — na escola, no trabalho ou nas relações pessoais. O impacto psicológico traduz-se em casos de depressão, ansiedade e isolamento social. Algumas vítimas sofrem as consequências como se tivessem sido agredidas sexualmente, lê-se no relatório do CEE Digital Democracy Watch. Em situações extremas conduz à tragédia. Andrea Powell explica que, em alguns desses casos extremos, “as raparigas suicidam-se entre dois e cinco anos após o ocorrido”.

Foi o caso de Nicole “Coco” Fox, uma jovem irlandesa de 21 anos cuja história, após anos de abuso contínuo, tanto online como offline , culminou no suicídio. Depois da sua morte, a mãe, Jackie Fox, descobriu que não existia legislação eficaz que protegesse vítimas deste tipo de violência, nem para adultos nem para crianças.

A partir daí, tornou-se uma das principais vozes na luta contra o ciberbullying. Liderou a campanha que resultou na chamada “Coco’s Law”, legislação irlandesa que criminaliza a partilha de conteúdos íntimos sem consentimento, e levou a sua causa ao Parlamento Europeu, onde, no âmbito do Dia Internacional da Mulher, apelou à criação de uma lei europeia que proteja todas as vítimas de violência digital.

Porque o online não é mais um espaço para mulheres

Qualquer mulher que use as redes sociais já passou por experiências similares. Receber comentários sexualizados, fotos não solicitadas e ameaças da partilha de imagens íntimas fazem parte de um padrão de violência digital.

Projetos como o Everyday Sexism, criado por Laura Bates, ajudam a ilustrar a dimensão do fenómeno. Lançado em 2012, o site funciona como uma plataforma onde mulheres de todo o mundo podem partilhar as suas experiências de sexismo, incluindo violência online. Entre os testemunhos encontram-se várias histórias de mulheres que relatam receber insultos e ameaças depois de publicar opiniões online, ou que são alvo de mensagens sexualizadas e agressivas nas redes sociais por parte de desconhecidos.

O livro Internet is Not a Safe Place for Women foi a oportunidade que a investigadora digital italiana Silvia Semenzin aproveitou para contar a sua história. “Eu própria sou uma sobrevivente de abusos sexuais baseados na minha imagem”, conta ao Shifter, acrescentando que a sua experiência não é diferente das que milhares de outras mulheres vivem diariamente.

Silvia Semenzin, autora do livro Internet is Not a Safeplace for Women

No início, conta a autora, a internet era um espaço que tinha as mulheres como pioneiras. “Os primeiros códigos informáticos e algoritmos foram criados por mulheres”. Depois, tudo foi masculinizado e tratado como domínio masculino.

Hoje, os algoritmos das grandes plataformas digitais, em particular das redes sociais, mas também das aplicações de streaming e mensagens, são, antes de mais, comerciais: o objetivo é vender um produto. Neste contexto, o corpo das mulheres é um dos produtos mais eficazes.

“O capitalismo está profundamente ligado aos valores patriarcais, porque assenta muito na divisão do trabalho e nos estereótipos de género. Não é por acaso que assistimos ao crescimento das tradwives (mulheres tradicionais). Na versão ‘soft’ do algoritmo, encontramos vídeos de raparigas a falar de homens enquanto se maquilham, a continuar a abraçar um papel de género estereotipado e eficiente. É um produto fácil de vender”, explica Semenzi.

Os deepfakes também entraram nesta lógica de mercado. “Já há pessoas a serem pagas para criar deepfakes específicos”, conta Łabuz. Tal como noutros contextos, o corpo das mulheres torna-se matéria de exploração e fonte de lucro para utilizadores ou redes que produzem e distribuem imagens sexualizadas sem consentimento, muitas vezes a pedido e mediante pagamento. Neste contexto, os deepfakes tornam-se uma extensão de um modelo económico que monetiza o corpo feminino, agora recriado, manipulado e vendido sem necessidade de contacto físico.

Porém, desistir da internet não é a solução. Sair das plataformas ou parar de publicar fotografias não impediria a proliferação das deepfakes e lesaria as vítimas, limitando o seu espaço no mundo digital. Para Silvia Semenzin, é importante lembrar que esse espaço deve ser reivindicado. “Temos de lutar também por alternativas, pelo menos na internet, porque precisamos dela para organizar, coordenar e encontrar soluções políticas, mesmo que neste momento seja complicado”.

E se fores vítima, o que fazer?

Nos últimos meses, várias empresas tecnológicas têm vindo a expandir as suas ferramentas para reproduzirem interações de natureza sexual. A OpenAI prepara o lançamento de um modo “adulto” no ChatGPT, previsto para ainda este ano. Em paralelo, a xAI já disponibilizou versões do Grok com menos restrições na geração de conteúdos de teor sexual.

A big tech responde assim à demanda de um mercado que procura crescentemente experiências íntimas mediadas por tecnologia. As salvaguardas tendem a centrar-se no acesso de menores, através de sistemas de verificação de idade, limitações e moderação de conteúdo, porém pouco é garantido quanto ao uso abusivo e não consentido da imagem de mulheres e crianças.

Inês Marinho, fundadora da associação Não Partilhes

As instituições de apoio às vítimas tentam responder a estes desenvolvimentos e na Europa existem algumas estruturas focadas em lidar com casos de violência digital. Exemplo disso, na Catalunha já há uma plataforma pública que oferece acompanhamento jurídico, psicológico e técnico gratuito até à conclusão do processo.

Em Portugal, a Associação Não Partilhes ensina como atuar caso seja alvo destes ataques. O primeiro passo recomendado é recolher provas. “É tirar o máximo de prints possível e guardar tudo”, explica Inês Marinho. Depois, deve ser apresentada queixa, preferencialmente na Polícia Judiciária, que dispõe de uma unidade especializada em cibercrime. Mesmo quando o autor é desconhecido, a responsável aconselha a formalização da denúncia. A Inspetora Carla Costa reforça a importância de guardar o maior número de provas: “URLs, capturas, data/hora, perfis, mensagens e eventuais ficheiros originais”. 

Carla Costa aponta para duas ferramentas gratuitas de denúncias, disponíveis online, o StopNCII, para maiores de 18 anos, e o Take It Down, para menores. A Inspetora explica que estas funcionam através da criação de um “hash”, comparável a uma impressão digital, que permite bloquear automaticamente novas tentativas de upload do mesmo conteúdo em diferentes serviços online. Apesar de ter uma taxa de remoção superior a 90%, o sistema não é totalmente eficaz e pequenas alterações à imagem ou ao vídeo podem impedir o seu reconhecimento e permitir que o conteúdo volte a circular.

A Não Partilhes oferece apoio no enquadramento jurídico da situação e faz acompanhamento ao longo do processo. “Fazemos aconselhamento jurídico pré-queixa e damos apoio emocional”, refere a responsável da organização. Paralelamente, orienta para os mecanismos de remoção do conteúdo que podem ajudar a limitar a circulação das imagens e reforça a importância de procurar apoio psicológico. “O impacto psicológico é significativo e não deve ser subestimado. O que vemos é desespero, ansiedade e medo de voltar ao trabalho”, resume Inês Marinho.

Autor:
15 Abril, 2026
  • Jornalista portuguesa em Bruxelas, escreve sobre tecnologias, políticas europeias digitais e privacidade.

     

(Shifter)