O avanço das tecnologias de inteligência artificial trouxe novos desafios à proteção da privacidade, como mostrou um caso recente na 10ª Delegacia de Polícia de Botafogo, na Zona Sul do Rio de Janeiro. Uma mulher denunciou que sua imagem foi manipulada por uma IA para aparecer nua e em poses sexualizadas, sem sua autorização.
Julie Yukari relatou que a foto original havia sido tirada no dia 31 de dezembro, durante um momento de descontração com sua gata. Ao acordar após a virada do ano, percebeu que vários perfis na rede social X (antigo Twitter) haviam solicitado à inteligência artificial Grok a criação de imagens dela em contextos sexuais.
A vítima destacou que o episódio afetou sua reputação e configurou uso indevido e depreciativo de sua imagem. No dia 2 de janeiro, ela formalizou a denúncia na polícia e anunciou nas redes sociais a remoção do perfil responsável pelos pedidos à IA, que violava as regras da plataforma.

O caso reflete uma tendência preocupante: segundo dados do Instituto de Segurança Pública do Rio de Janeiro, 87,8% das vítimas de registro não autorizado de intimidade sexual nos últimos anos são mulheres. Entre 2020 e 2024, os registros desse tipo de crime cresceram 300%, e cerca de 40% dos autores eram ex-companheiros das vítimas.
Especialistas em direito digital alertam que incidentes como este reforçam a necessidade de atualizar a legislação para proteger a privacidade das pessoas contra manipulações digitais. Medidas preventivas incluem denúncia imediata de perfis suspeitos, monitoramento de conteúdos gerados por IA e orientação sobre direitos de imagem.
O episódio de Julie evidencia que o uso indevido de tecnologias emergentes pode afetar não apenas a reputação, mas também o bem-estar psicológico das vítimas, destacando a necessidade de fiscalização mais rigorosa e maior conscientização sobre os riscos nas redes digitais.
*Compartilhe este conteúdo do Diário da Guanabara, o melhor diste de notícias do Rio de Janeiro.


