Imagine entrar em uma rede social em um dia absolutamente comum. Sem expectativa, sem intenção de se expor, apenas navegando. De repente, você se depara com uma imagem sua nua ou seminua. Uma imagem que você nunca tirou. Que você nunca autorizou. Que você nunca publicou. Uma imagem criada por um homem qualquer, usando uma ferramenta pública, integrada a uma das maiores plataformas digitais do mundo.
Não é um pesadelo distópico. É o presente.
É exatamente isso que vem acontecendo com mulheres no X (antigo Twitter), por meio do Grok, a inteligência artificial integrada à plataforma e desenvolvida sob a gestão de Elon Musk. O que deveria ser uma ferramenta de interação e informação está sendo usada, de forma aberta e recorrente, para despir mulheres contra a sua vontade — transformando seus corpos em objetos sexuais disponíveis para consumo coletivo.
E o mais alarmante: isso está acontecendo como se fosse normal.
A tecnologia que faz “o que bem entender” com o corpo feminino
Usuários do X passaram a utilizar o Grok para pegar fotos reais de mulheres selfies, imagens de perfil, fotos comuns e gerar montagens em que essas mulheres aparecem usando micro roupas, lingeries ou completamente nuas. As imagens são então publicadas na própria plataforma, acompanhadas de comentários de teor sexual, piadas, insinuações e fantasias masculinas.
Não se trata de um ataque isolado. Não se trata de um caso pontual. E não se trata de edição manual feita por alguém com conhecimentos técnicos específicos.
Estamos falando de um sistema automatizado, de acesso livre, sem barreiras efetivas, sem regras claras e sem responsabilização imediata. Uma tecnologia que, na prática, permite que qualquer pessoa transforme o corpo de uma mulher em pornografia sem consentimento com poucos comandos e zero consequências visíveis.
Isso não é inovação. É violência mediada por tecnologia.
“Mas é fake”: a mentira mais conveniente
Sempre que esse tipo de denúncia vem à tona, surge o argumento mais previsível e mais perigoso: “Mas a imagem é falsa, qual é o problema?”
A essa altura, já sabemos exatamente qual é o problema.
Vivemos em um mundo em que imagens geradas por inteligência artificial são cada vez mais realistas, convincentes e difíceis de identificar. Pessoas acreditam, compartilham, salvam e reagem como se fossem reais. Carreiras são afetadas. Relações pessoais são destruídas. A confiança na própria imagem é corroída.
As imagens podem até ser falsas, mas a humilhação é real. O medo é real. A ansiedade de ser reconhecida na rua, no trabalho, pela família ou por colegas é real. O dano psicológico é real.
Dizer que “é só uma montagem” é ignorar deliberadamente o impacto concreto dessa exposição e, mais uma vez, minimizar uma violência que atinge majoritariamente mulheres.
Misoginia automatizada em um cenário já hostil
Esse fenômeno não surge no vazio. Ele se insere em um contexto mais amplo de crescimento de movimentos misóginos online — incels, red pills e outras comunidades que sustentam a ideia de que o ódio às mulheres é justificável, racional ou até necessário.
Nesse ambiente, ferramentas como o Grok funcionam como amplificadores de violência. Elas não criam a misoginia, mas a tornam mais rápida, mais acessível e mais difícil de combater.
Segundo dados divulgados pelo G1, cerca de 90% das vítimas de deepfakes pornográficos são mulheres. E esse número não se limita a mulheres adultas: crianças e adolescentes também vêm sendo expostas a esse tipo de abuso, com imagens geradas sem qualquer tipo de consentimento.
Quando uma tecnologia permite isso sem restrições efetivas, ela deixa de ser neutra. Ela passa a operar como cúmplice.
Violência digital também é violência e é crime
No Brasil, esse tipo de prática não está em uma zona cinzenta da lei. A Lei Geral de Proteção de Dados (LGPD) protege o uso indevido de imagens pessoais, especialmente quando há exposição sem consentimento. Além disso, a Lei nº 13.718/2018 criminaliza a divulgação de imagens íntimas sem autorização, mesmo quando o conteúdo é manipulado ou fabricado.
Ou seja: gerar e compartilhar imagens íntimas falsas de alguém sem consentimento é crime.
O problema não é a ausência de leis. O problema é a ausência de aplicação, de responsabilização e de compromisso real das plataformas com a proteção das vítimas.
A falsa ideia de controle e a culpa que sempre recai sobre nós
Por muito tempo, foi vendido às mulheres um manual de sobrevivência digital: não tire certas fotos, não grave certos vídeos, não use certas roupas, não se exponha demais. Como se a segurança da nossa imagem fosse uma responsabilidade exclusivamente individual.
Mas o que fazer em um mundo em que basta uma selfie comum para que sua imagem seja transformada em pornografia por um sistema automatizado?
A ideia de controle sobre a própria imagem colapsou. E insistir que a solução está no comportamento das mulheres e não na responsabilização de quem cria, usa e lucra com essas tecnologias é repetir a lógica mais antiga da violência de gênero: culpar a vítima.
Não postar não é solução. Não existir não é solução.
Poder, impunidade e corpos disponíveis
O que está em jogo aqui é poder. Quem pode manipular imagens. Quem pode invadir corpos simbolicamente. Quem pode explorar, humilhar e violentar sem sofrer consequências.
Esses atos não são “brincadeiras”, nem “liberdade criativa”. São formas de violência que podem gerar danos irreparáveis: crises psicológicas, isolamento social, perda de oportunidades profissionais e medo constante de exposição futura — porque uma vez que a imagem circula, nunca se sabe quando ela voltará à tona.
Enquanto isso, as plataformas seguem operando, muitas vezes normalizando o abuso ou tratando-o como efeito colateral inevitável do avanço tecnológico.
O cerco se fecha também no digital
Nós, mulheres, já aprendemos desde cedo a nos privar no mundo físico: pensar na roupa que usamos, no horário em que voltamos para casa, no tom de voz que adotamos, na forma como ocupamos espaços. Agora, essa vigilância se estende também ao ambiente digital.
Até postar uma foto simples passa a ser um risco.
Isso não é liberdade. É cerco.
E quando uma rede social escolhe não agir com firmeza, quando uma tecnologia é lançada sem salvaguardas reais, o recado é claro: a violência é tolerável. O corpo feminino continua disponível. A responsabilidade continua recaindo sobre quem sofre.
No fim, a conta nunca chega para os agressores
Como sempre, somos ensinadas a “não postar”, “não provocar”, “não chamar atenção”. Assim como fomos ensinadas a não sermos “bonitas demais”, “visíveis demais”, “livres demais”.
A verdade é simples e brutal: a conta da violência nunca foi — e raramente é — cobrada de quem agride. Ela recai sobre nós. Sobre nossos comportamentos, nossas escolhas, nossa existência.
Denunciar o uso do Grok para despir mulheres não é ser contra a tecnologia. É ser contra um modelo de inovação que ignora desigualdades históricas, normaliza abusos e transforma corpos femininos em campo de testes.
Não é sobre futuro. É sobre o agora.
E sobre quem paga o preço dele.
