Pular para o conteúdo

Explorando deepfakes de biquíni com as ferramentas de IA do Google e OpenAI

Banner Aleatório

Principais destaques:

Banner Aleatório
  • Investigações mostram que ferramentas de geração de imagens do Google e da OpenAI foram exploradas para criar deepfakes sexualizados sem consentimento.
  • Comunidades online compartilharam instruções para burlar filtros de segurança, ampliando riscos para mulheres.
  • Pressão regulatória cresce nos EUA e no Reino Unido para responsabilizar plataformas e coibir o abuso.

Ferramentas modernas de geração de imagens voltaram ao centro do debate após uma investigação da WIRED revelar como usuários conseguiram transformar fotos de mulheres totalmente vestidas em imagens de biquíni.

O caso expõe limites práticos da moderação em sistemas cada vez mais fotorrealistas e reacende discussões sobre consentimento, fiscalização e responsabilidade corporativa no uso de inteligência artificial.

Como as brechas foram exploradas

Segundo a apuração, usuários trocaram passo a passo em fóruns do Reddit para manipular o Gemini e o ChatGPT Images. Em testes limitados, comandos simples em inglês teriam sido suficientes para contornar salvaguardas.

Após a denúncia, conteúdos foram removidos e comunidades envolvidas acabaram banidas, mas o episódio evidenciou a velocidade com que métodos de evasão se espalham.

Respostas das empresas e limites da moderação

O Google afirma manter políticas claras contra conteúdo sexualmente explícito e diz aprimorar continuamente seus sistemas. A OpenAI reforça que suas regras proíbem alterar a aparência de alguém sem consentimento e que aplica sanções a quem viola as diretrizes.

Ainda assim, o avanço das capacidades de edição e realismo desafia os mecanismos de detecção, especialmente após atualizações recentes que ampliaram o poder criativo das plataformas.

Impacto social e pressão por leis mais duras

Organizações de direitos digitais alertam para danos reais. A Electronic Frontier Foundation, por meio de sua diretora jurídica Corynne McSherry, classifica imagens abusivamente sexualizadas como um risco central da IA generativa.

Nos EUA, parlamentares como Celeste Maloy e Jake Auchincloss apresentaram propostas para retirar proteções legais de plataformas que não removerem deepfakes não consensuais após denúncia.

No Reino Unido, a secretária de Tecnologia Liz Kendall anunciou medidas para criminalizar até a criação desse tipo de material, sinalizando uma abordagem mais rígida.

✨ Curtiu este conteúdo?

O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google – e isso só é possível com o apoio de pessoas como você. 🙌

Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!

Clique aqui e faça parte da nossa rede de apoiadores.

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *