O anúncio do GPT-5.2 marcou um avanço técnico importante para a OpenAI, mas uma revelação paralela chamou ainda mais atenção: a chegada do chamado “modo adulto” no ChatGPT em 2026. A promessa de um chatbot mais livre, expressivo e capaz de criar conteúdos eróticos levanta debates éticos, psicológicos e regulatórios. Enquanto a empresa garante que o recurso será restrito a maiores de idade, especialistas alertam que as consequências podem ir muito além do entretenimento.
O que a OpenAI planeja para o “modo adulto”
A novidade foi confirmada por Fidji Simo, CEO de Aplicações da OpenAI, que declarou que o modo adulto chegará ao ChatGPT no primeiro trimestre de 2026. A funcionalidade nasce de uma promessa feita anteriormente por Sam Altman, após parte da comunidade reclamar que GPT-5 havia se tornado “menos expressivo” ou “lobotomizado”.
O modo adulto incluirá:
- maior liberdade para criação de conteúdos eróticos;
- estilos de resposta mais ousados;
- uma “personalidade” mais customizável ao longo das conversas;
- interações menos restringidas para usuários adultos.
Mas a OpenAI enfatiza que essas funções só serão liberadas após testes rigorosos de verificação de idade.
O caminho até aqui: limitações, escândalos e segurança
O interesse em liberar conteúdos adultos não surgiu no vazio. Em 2024 e 2025, a OpenAI restringiu parte da expressividade do chatbot após uma série de polêmicas envolvendo:
- preocupações com saúde mental de usuários;
- aumento de relatos de pessoas formando vínculos emocionais profundos com o chatbot;
- um processo judicial envolvendo o suicídio de um adolescente que teria recebido conselhos de GPT-5 sobre métodos autolesivos.
Em resposta, a empresa criou:
- controles parentais mais rígidos;
- mecanismos automáticos de estimativa de idade;
- diferentes camadas de segurança para adolescentes.
Esse sistema de triagem é justamente o que permitirá liberar o modo adulto sem expor menores de idade.
Erotismo? Personalidade? O que realmente define esse novo modo
A expressão “adult mode”, prometida por Altman, foi rapidamente associada ao desbloqueio de pornografia textual. Porém, executivos da OpenAI afirmam que o objetivo vai além.
A proposta oficial inclui:
- maior autonomia criativa;
- mais espaço para construir uma personalidade contínua;
- interações mais “livres” entre chatbot e usuário;
- menor rigidez nas respostas consideradas maduras ou sensíveis.
Isso implica um ChatGPT menos neutro e mais adaptável emocionalmente — algo que entusiasma alguns, mas preocupa especialistas.
O alerta de pesquisadores: liberdade pode significar vulnerabilidade
Estudos recentes mostram que a aproximação emocional entre humanos e IA pode gerar efeitos psicológicos significativos.
Pesquisas divulgadas na Journal of Social and Personal Relationships apontam que:
- adultos que desenvolvem vínculos emocionais com chatbots apresentam níveis mais altos de sofrimento psicológico;
- pessoas com poucos relacionamentos reais têm maior probabilidade de confiar intimamente em inteligências artificiais;
- ambientes que incentivam personalidades “afetivas” podem aumentar o risco de dependência emocional.
Até a própria OpenAI já admitiu que parte dos usuários se torna emocionalmente dependente do ChatGPT, mesmo quando o chatbot mantém uma postura neutra.
Liberar modos mais afetivos e personalizáveis, portanto, pode intensificar um problema já existente.
Entre inovação e responsabilidade
Para a OpenAI, o “adult mode” é uma aposta comercial e tecnológica: oferecer aos adultos mais liberdade e experiências personalizadas. Porém, ao fazer isso, a empresa transfere parte da responsabilidade para o usuário — justamente em um momento em que ainda se conhece pouco sobre os impactos psicológicos de vínculos com inteligências artificiais.
Enquanto os testes de verificação de idade continuam, uma pergunta permanece sem resposta:
até que ponto a indústria pode oferecer intimidade digital sem aprofundar problemas mentais e sociais?
O lançamento de 2026 promete revolucionar o uso de IA — mas também será um teste decisivo sobre como equilibrar liberdade, segurança e limites éticos na interação homem-máquina.

