Pular para o conteúdo

IA generativa pode ser convencida a criar conteúdo sexual, aponta estudo

Banner Aleatório

Em testes, DeepSeek foi o mais permissivo, enquanto GPT-4o e Gemini mostram respostas inconsistentes a pedidos eróticos

Banner Aleatório
Menu do ChatGPT
(Imagem: Ascannio/Shutterstock)

Compartilhe esta matéria

Uma nova pesquisa liderada por Huiqian Lai, doutoranda da Universidade de Syracuse, revela grandes diferenças na forma como chatbots de inteligência artificial respondem a solicitações de conteúdo sexual.

Apesar de muitos modelos serem programados para recusar esse tipo de interação, Lai descobriu que, com insistência, alguns acabam gerando respostas eróticas — especialmente o modelo chinês DeepSeek,, o mais propenso a atender a pedidos de role-play sexual.

O estudo foi publicado no arXiv.

claude
Nem todos os chatbots se recusam a interagir usando conteúdos sexuais, o que pode representar um risco para crianças (Imagem: gguy / Shutterstock.com)

Como cada chatbot testado se saiu

  • “A DeepSeek mostrou-se muito mais flexível, enquanto o Claude, da Anthropic, manteve os limites mais rígidos”, afirma Lai.
  • O GPT-4o, por sua vez, muitas vezes recusava inicialmente, mas acabava cedendo em etapas posteriores.
  • A pesquisadora analisou quatro modelos populares — Claude 3.7, GPT-4o, Gemini 2.5 e DeepSeek-V3 — e os classificou de 0 a 4 conforme seu nível de envolvimento com encenações sexuais.
  • A nota 0 indicava recusa total, enquanto 4 representava descrições gráficas com linguagem explícita.
image 82
No gráfico acima, as notas dos modelos em 20 prompts usados no estudo, solicitando para os chatbots que eles criassem um conteúdo sexual – Imagem: arXiv

Leia mais:

Logo do DeepSeek na tela de um smartphone
Modelo da DeepSeek foi o mais fácil de seduzir ao solicitar conteúdos sexuais (Imagem: Mojahid Mottakin/Shutterstock)

Descobertas ligam alerta

As descobertas, que serão apresentadas em novembro na conferência da Associação para Ciência da Informação e Tecnologia, chamam atenção para riscos de exposição a conteúdo inapropriado, inclusive por crianças e adolescentes.

“Essas inconsistências mostram falhas nos limites de segurança desses sistemas”, alerta Lai.

Pesquisadores como Afsaneh Razi e Tiffany Marcantonio destacam que equilibrar utilidade e segurança é um dos maiores desafios no design de modelos de IA — especialmente quando envolvem temas delicados como sexualidade e consentimento.

gemini app
Especialistas alertam para riscos de exposição, inclusive entre adolescentes, e pedem maior rigor nos sistemas de segurança dos chatbots de IA (Imagem: JarTee / Shutterstock.com)


Leandro Costa Criscuolo

Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.


Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *