A revista Wired publicou uma reportagem apontando que ferramentas populares de geração de imagens por inteligência artificial (IA), como o Google Gemini e ChatGPT, da OpenAI, podem ser usadas para transformar fotos de mulheres totalmente vestidas em imagens falsas nas quais elas aparecem usando biquínis. De acordo com a publicação, esses conteúdos são criados sem qualquer consentimento das pessoas retratadas.
Usuários desses sistemas vêm trocando instruções passo a passo em fóruns online, como o Reddit, para contornar as salvaguardas dos modelos de IA – mecanismos de segurança que deveriam impedir a geração de conteúdo impróprio e ilícito, como sexualização não consensual. A prática, afirma a publicação, resulta em deepfakes realistas e potencialmente danosos, partindo de fotografias comuns retiradas de redes sociais.

Investigação mostrou que usuários do Reddit trocavam dicas de como burlar as salvaguardas das inteligências artificiais para cometer atos ilegais Foto: Artem Medvediev/Adobe Stock
A Wired relata que parte dessas trocas ocorreu em um post do Reddit intitulado “gemini nsfw image generation is so easy”, já apagado. Nesse espaço, usuários discutiam como induzir o modelo Gemini a produzir imagens de mulheres com roupas mais reveladoras. Embora parte das imagens discutidas fosse criada inteiramente por IA, a reportagem identificou ao menos um caso em que usuários pediram a modificação direta de uma fotografia real, transformando a imagem de uma mulher existente em um deepfake de biquíni, sem consentimento.
Nesse caso específico, detalha a Wired, um usuário publicou a imagem de uma mulher vestindo um sari indiano e solicitou que alguém removesse a roupa e a substituísse por um biquíni. Outro participante respondeu com uma imagem deepfake que atendia ao pedido. Após ser procurado pela revista, o Reddit removeu tanto a solicitação quanto a imagem gerada.
Em resposta à publicação, um porta-voz do Reddit afirmou que as regras globais da plataforma proíbem “mídia íntima não consensual”. O subreddit onde a discussão ocorreu, o r/ChatGPTJailbreak, tinha mais de 200 mil seguidores antes de ser banido pelo Reddit com base em uma regra interna que proíbe comunidades criadas para explorar falhas técnicas, burlar restrições e comprometer o funcionamento normal da plataforma.
A reportagem contextualiza o episódio dentro de um problema mais amplo: a proliferação de ferramentas de IA capazes de gerar imagens hiper-realistas. Segundo a revista, milhões de pessoas já acessaram sites que permitem enviar fotos reais para que a IA simule a remoção de roupas, um fenômeno que tem sido usado reiteradamente para assediar mulheres.
Com exceção do Grok, da xAI, a maioria dos chatbots convencionais não permite oficialmente a geração de imagens com conteúdo sexualmente explícito. Ainda assim, a revista aponta que tanto o Gemini quanto o ChatGPT possuem brechas exploráveis, o que torna possível burlar restrições usando comandos simples, escritos em linguagem cotidiana.
Em testes próprios descritos na reportagem, a Wired afirma ter conseguido transformar imagens de mulheres totalmente vestidas em deepfakes de biquíni usando instruções básicas. Em outra discussão analisada pela revista, usuários trocavam dicas sobre como ajustar roupas em fotos para deixar saias mais curtas ou mais justas, evitando os filtros automáticos.
Questionado pela Wired, o Google declarou ter políticas claras que proíbem o uso de suas ferramentas para gerar conteúdo sexualmente explícito e afirmou que seus sistemas estão em constante aprimoramento para refletir essas diretrizes. A OpenAI, por sua vez, disse à Wired que flexibilizou algumas barreiras neste ano apenas para corpos adultos em contextos não sexuais e reiterou que alterar a aparência de alguém sem consentimento viola suas regras de uso.
A OpenAI afirma tomar medidas contra usuários que criam deepfakes explícitos, incluindo o banimento de contas. Ainda assim, a matéria ressalta que discussões sobre como gerar imagens sexualizadas continuam ativas em diferentes comunidades online, mesmo após remoções pontuais.
Avanços que ampliam capacidades e riscos
A denúncia da Wired surge em um momento de rápida evolução das inteligências artificiais generativas. Recentemente, em resposta ao lançamento do Gemini 3, a OpenAI lançou o GPT-5.2, que ampliou significativamente a capacidade de compreender e manipular imagens. Paralelamente, a OpenAI confirmou que o ChatGPT deve ganhar um “modo adulto” em 2026, prometendo interações mais livres para maiores de idade, embora sem detalhar como lidará com a geração de imagens sensíveis.
Para a Wired, esses avanços técnicos tornam ainda mais urgente o debate sobre limites, fiscalização e responsabilização. A revista cita Corynne McSherry, diretora jurídica da Electronic Frontier Foundation, que classifica as “imagens abusivamente sexualizadas” como um dos principais riscos associados a geradores de imagem por IA.
Segundo McSherry, em declaração reproduzida pela revista, essas ferramentas têm usos legítimos e criativos, mas o foco precisa estar em como elas são utilizadas e em “responsabilizar pessoas e empresas” quando danos concretos são causados.

