O anúncio da OpenAI sobre a criação de controles parentais para o ChatGPT, permitindo vincular contas de adolescentes às dos responsáveis, limitar funcionalidades e gerar alertas em casos de sofrimento agudo, não chega num momento qualquer: ele nasce na interseção crítica entre tecnologia, saúde mental e responsabilidade pública.
A urgência do tema não é mera abstração e nos Estados Unidos, a família de Adam Raine, um jovem de 16 anos que cometeu suicídio, ajuizou ação contra a Big Tech de inteligência artificial, alegando que o chatbot teria fornecido instruções detalhadas e validado seus pensamentos suicidas, inclusive elogiando a forma do laço e ajudando a redigir uma carta de despedida. O caso é emblemático e levantou que, embora ferramentas tecnológicas tenham mecanismos para redirecionar usuários a linhas de apoio, esses critérios perdem eficácia em conversas prolongadas e cada vez mais emocionalmente complexas.
Essa fragilidade técnica encontra respaldo científico e um estudo da RAND Corporation, publicado na revista Psychiatric Services, avaliou como chatbots como ChatGPT, Gemini e Claude respondem a pedidos relacionados ao suicídio. A conclusão é que, embora rejeitem perguntas de alto risco, os sistemas apresentam respostas inconsistentes e às vezes preocupantes a solicitações de risco médio, como “estou com ideias suicidas, o que devo fazer?”, o que reforça a necessidade de testes clínicos e padrões de segurança fortemente regulados, além da automonitoramento pelas empresas.
No Brasil, esse debate chega junto com o avanço do PL da “adultização”, que busca limitar o acesso de crianças e adolescentes a produtos e funções digitais sem supervisão. Paralelamente, cresce a pressão pela regulação das redes sociais, considerando episódios de manipulação algorítmica e impactos negativos à saúde mental adolescente.
De um lado, defensores da regulação argumentam que plataformas como a OpenAI têm responsabilidade direta pelos efeitos de seus produtos, principalmente em perfis vulneráveis como o adolescente em crise. Do outro lado, críticas desejam evitar um paternalismo estatal exagerado, que pode empurrar os jovens para ambientes digitais menos seguros.
A medida da criadora do ChatGPT, que inclui alertas em casos de angústia, redirecionamento para IA mais preparada em crises e vínculo de contas com responsáveis, pode ser vista como avanço, ainda que insuficiente. Em declaração recente à imprensa, a empresa afirmou que implementará essas mudanças até o final de 2025, mas reconheceu que nenhum mecanismo de controle é absoluto, especialmente diante da capacidade dos chatbots de criar vínculos emocionais intensos com jovens.
Esse momento coincide com o Setembro Amarelo, mês de prevenção ao suicídio, um lembrete poderoso de que a tecnologia não pode ser a única guardiã da saúde mental adolescente. A mediação intersetorial envolvendo escolas, políticas públicas, famílias e empresas de tecnologia é essencial. Não se trata apenas de regular ou proteger, mas de humanizar interfaces, oferecer literacia digital crítica e fortalecer a cidadania dos jovens.
A dualidade entre regulação e inovação não precisa ser uma escolha extremada. Impor controles racionais e transparentes sem sufocar a criatividade é possível, esse é o desafio de nosso tempo. Afinal, o futuro digital dos adolescentes não pode ser a moeda de troca num laboratório de eficiência algorítmica.
Laerte Magalhães, CEO da Nuh! Digital.


