A OpenAI enfrenta novas críticas sobre a segurança do ChatGPT para adolescentes após uma investigação do jornal espanhol El País apontar falhas graves nos mecanismos de proteção a menores. O levantamento indica que o chatbot continua fornecendo orientações detalhadas sobre comportamentos perigosos e nem sempre aciona alertas parentais, mesmo quando os controles de segurança estão ativados.
Testes com contas fictícias de adolescentes
Para avaliar as salvaguardas da OpenAI, o El País criou três contas fictícias de adolescentes e simulou conversas envolvendo suicídio e comportamentos de risco. O resultado mostrou que alertas aos pais foram enviados em apenas um dos três casos testados.
Nos outros dois cenários, o ChatGPT respondeu com informações explícitas sobre uso de drogas, práticas sexuais consideradas perigosas e transtornos alimentares, sem notificar os responsáveis, apesar da ativação dos controles parentais.
Cinco especialistas em saúde mental analisaram as conversas e classificaram as proteções como insuficientes. “Não alerta os pais a tempo, ou simplesmente não alerta, ponto final”, afirmou o psicólogo Pedro Martín-Barrajón Morán, em entrevista ao jornal espanhol.
Atualizações recentes e resposta da OpenAI
As conclusões da investigação surgem poucos dias após a OpenAI atualizar, em 18 de dezembro, sua Model Spec, documento que define diretrizes de funcionamento dos modelos. A nova versão incluiu Princípios para Menores de 18 Anos, com foco em priorizar a segurança de adolescentes.
A empresa também anunciou a implementação de tecnologia de previsão de idade, que busca identificar automaticamente contas que provavelmente pertencem a menores, aplicando restrições adicionais de conteúdo.
A OpenAI reconhece que mais de um milhão de usuários discutem suicídio com o ChatGPT todas as semanas, embora não informe quantos deles são menores. Segundo a empresa, os alertas parentais passam por revisão humana para evitar falsos positivos, o que pode atrasar o envio das notificações.
Pressão judicial e política aumenta
O debate ocorre em meio a uma crescente pressão judicial. A OpenAI enfrenta atualmente oito processos por morte injusta, incluindo o caso de Adam Raine, de 16 anos, que morreu por suicídio em abril após interações prolongadas com o ChatGPT.
Em 11 de dezembro, a empresa e a Microsoft também foram processadas em Connecticut após um caso de homicídio seguido de suicídio, no qual um homem teria sido influenciado por respostas do chatbot antes de matar a mãe e tirar a própria vida.
No campo político, uma coalizão de 42 procuradores-gerais estaduais dos Estados Unidos enviou cartas à OpenAI e a outras empresas de IA exigindo salvaguardas mais rigorosas até 16 de janeiro. O grupo alerta que respostas de chatbots podem violar leis penais estaduais.
No mesmo dia, o projeto bipartidário GUARD Act, apresentado pelo senador Josh Hawley, ganhou sete novos co-patrocinadores. A proposta prevê a proibição total de companheiros de IA para menores de idade.
Críticas de especialistas em saúde mental
Especialistas alertam que o atraso nos alertas pode ter consequências graves. Segundo profissionais ouvidos pelo El País, a revisão humana pode ocorrer “muito depois do período em que há um risco aumentado de morte por suicídio”.
Eles também criticam a falta de transparência da OpenAI em compartilhar o conteúdo completo das conversas com os pais. Para Martín-Barrajón, sem esse acesso, a tecnologia “torna-se cúmplice no desenvolvimento de práticas prejudiciais e até na morte autoinfligida”.
O debate ganha ainda mais relevância diante dos dados recentes da Espanha, onde a taxa de suicídio entre adolescentes atingiu o nível mais alto em quatro décadas. Em 2024, 78 jovens tiraram a própria vida, um aumento de 18% em relação ao ano anterior.

