A OpenAI prepara a maior mudança recente no ChatGPT: todos os usuários serão tratados inicialmente como menores de idade. Só depois de comprovar que têm mais de 18 anos será possível acessar o chatbot em sua totalidade. O objetivo é aumentar a segurança, sobretudo para adolescentes, em um momento em que os riscos digitais estão sob os holofotes.
Uma nova página de personalização

A página de personalização do ChatGPT foi reformulada para centralizar três funções antes separadas: instruções personalizadas, memória e configuração de personalidade. A ideia, segundo Sam Altman, CEO da OpenAI, é tornar mais fácil ajustar como o chatbot deve interagir com cada usuário.
Agora, em uma única aba, será possível definir estilo de resposta, tom das conversas e também as informações que o sistema deve lembrar, como nome ou profissão. Essa atualização estará disponível globalmente nos próximos dias.
Identificação automática de adolescentes
A maior novidade, no entanto, é o sistema de detecção de idade. Quando o ChatGPT identificar que está conversando com um adolescente, passará automaticamente a oferecer uma experiência adaptada, bloqueando conteúdos inapropriados e reforçando medidas de proteção.
Se houver dúvida sobre a idade do usuário, a plataforma adotará por padrão o modo adolescente. Só quem comprovar ser adulto terá acesso irrestrito, em um processo que ainda será detalhado.
Controles parentais e supervisão
OpenAI também introduzirá controles parentais a partir do fim de setembro. Pais poderão vincular suas contas às de filhos adolescentes, estabelecer limites de uso, desabilitar funções (como memória e histórico) e até definir horários de inatividade.
Além disso, receberão alertas em casos de crise emocional, quando o sistema detectar sinais graves de angústia. A medida é parte de um esforço maior para reforçar o bem-estar digital em famílias que usam a ferramenta.
Lições de um caso trágico
Essas mudanças chegam após um episódio ocorrido em abril nos EUA, quando um adolescente de 16 anos cometeu suicídio. Segundo os pais, o jovem interagia constantemente com o ChatGPT. Embora o sistema tenha sugerido buscar ajuda profissional, falhas nas salvaguardas permitiram que a conversa se voltasse ao tema do suicídio.
O caso levantou debates sobre a responsabilidade das empresas de IA em situações de crise mental e acelerou a adoção de protocolos mais rígidos por parte da OpenAI.
Um equilíbrio delicado
A OpenAI reconhece que as medidas podem gerar frustração em alguns usuários adultos, mas defende que a prioridade é proteger adolescentes. O próprio Sam Altman destacou que o objetivo é “construir um espaço digital mais seguro, mesmo que isso signifique restringir recursos inicialmente”.
No futuro próximo, a empresa promete expandir os métodos de verificação de idade e aprimorar as experiências personalizadas, equilibrando liberdade e proteção. Enquanto isso, a regra é clara: quem não comprovar ser adulto, usará o ChatGPT como adolescente.
OpenAI vai limitar o ChatGPT por padrão a uma experiência para menores de idade, bloqueando conteúdos sensíveis. Só adultos que provarem sua idade terão acesso completo. A medida vem acompanhada de controles parentais e segue preocupações crescentes com a segurança digital de adolescentes após um caso de suicídio nos EUA.
[ Fonte: La Nación ]

