Pular para o conteúdo

ChatGPT anuncia ‘modo adulto’ para 2026, gerando discussão sobre os limites da inteligência artificial

Banner Aleatório

A próxima virada do ChatGPT já tem data para acontecer e promete gerar debates. A OpenAI confirmou que o chamado “modo adulto” será liberado no primeiro trimestre de 2026, como parte da evolução do GPT-5.2, marcando um novo capítulo na disputa por modelos de IA mais sofisticados e contextualizados.

Banner Aleatório

A funcionalidade vem acompanhada de camadas extras de proteção. A empresa planeja mecanismos mais rígidos para impedir o acesso de menores, colocando a verificação de idade no centro da estratégia.

O movimento responde tanto à pressão regulatória quanto às discussões sobre o uso responsável da inteligência artificial.

Embora o GPT-5.2 apresente desempenho consistente em testes técnicos, a maturidade comportamental ainda divide opiniões. Em entrevistas recentes, a CEO de Aplicações da OpenAI, Fidji Simo, reforçou que o objetivo é avançar sem abrir mão da segurança, equilibrando inovação, limites éticos e controle de riscos.

Como será a experiência “adulta”

O termo não se restringe a conteúdo erótico, segundo a OpenAI. A proposta libera adultos para configurarem personalidades e estilos de resposta do ChatGPT de modo mais refinado.

A promessa de Sam Altman de oferecer uma versão mais adulta atende aos pedidos por maior liberdade de interação. O plano surgiu após ajustes comportamentais no GPT-5, que geraram críticas por parte da comunidade.

Assim, a empresa busca ampliar a flexibilidade, permitindo que o programa adote uma personalidade ajustada ao estilo de cada usuário, mas sem abrir mão da responsabilidade. A empresa pretende cercar o sistema de salvaguardas, inclusive limites de acesso e sinalizações de risco.

Segurança e verificação de idade

Um sistema de estimativa de idade direcionará cada pessoa para a experiência apropriada. Ao The Verge, Simo afirmou que a OpenAI ainda está calibrando a tecnologia para reconhecer adolescentes com precisão e, ao mesmo tempo, evitar classificações equivocadas de adultos. Os testes seguirão nos próximos meses.

Riscos e debate público

A OpenAI reduziu a personalidade do chatbot após um processo por homicídio culposo movido pelos pais de um jovem de 16 anos.

O adolescente pediu ao ChatGPT instruções sobre um nó de forca e morreu em seguida. Desde então, a empresa reforçou os controles parentais e criou experiências mais seguras para os menores.

Estudos publicados no Journal of Social and Personal Relationships associam vínculos emocionais com chatbots a níveis maiores de sofrimento psicológico. Por outro lado, pesquisas indicam que pessoas com poucos relacionamentos se abrem mais para a IA.

A própria OpenAI reconheceu os riscos de dependência emocional e prometeu mitigar os impactos.

O sucesso do plano depende de uma verificação que identifique adolescentes com alta precisão, sem bloquear adultos por engano. Além disso, a OpenAI precisará demonstrar transparência sobre os limites de uso e as respostas a potenciais abusos. Assim, reguladores e consumidores acompanharão cada passo.

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *