O debate sobre os riscos da inteligência artificial para crianças e adolescentes acaba de ganhar um novo capítulo. Um relatório da Common Sense Media, organização norte-americana especializada em segurança digital, concluiu que o Google Gemini representa “alto risco” para menores de 18 anos. Segundo a análise, a plataforma trata adolescentes e adultos praticamente da mesma forma, ignorando necessidades específicas de proteção para usuários mais jovens.
Avaliação revela falhas de segurança

O estudo focou principalmente na versão Google Gemini Teen, projetada para adolescentes, e descobriu que, apesar de alegar oferecer filtros de segurança, o sistema não diferencia adequadamente a abordagem para menores de idade.
De acordo com o relatório, o chatbot pode compartilhar conteúdos inapropriados e potencialmente perigosos, incluindo temas relacionados a sexo, drogas e álcool. Além disso, a versão para adolescentes forneceria apoio emocional e orientações de saúde mental pouco seguras, falhando ao identificar sinais de risco psicológico grave.
Os pesquisadores destacaram que o modelo responde bem a solicitações simples do dia a dia, mas “falha rapidamente em conversas mais longas e complexas”, justamente o tipo de interação que adolescentes tendem a ter com assistentes virtuais.
Recomendações para pais e responsáveis
A Common Sense Media classificou o uso do Gemini por menores como alto risco e emitiu orientações específicas:
- Crianças menores de 5 anos não devem interagir com chatbots de IA.
- Crianças de 6 a 12 anos só devem usá-los com supervisão adulta constante.
- Adolescentes de 13 a 17 anos podem usar a ferramenta de forma independente, mas apenas para tarefas escolares e projetos criativos.
- Chatbots não devem ser utilizados para apoio emocional, saúde mental ou acompanhamento psicológico.
Para a organização, permitir que jovens dependam da IA para lidar com ansiedade, depressão ou crises emocionais pode agravar problemas de saúde mental.
A resposta do Google

Diante da repercussão, o Google afirmou ao TechCrunch que o Gemini já possui políticas de segurança voltadas para menores, incluindo filtros para bloquear conteúdo prejudicial. A empresa também destacou que consulta especialistas externos para aprimorar suas proteções.
No entanto, a gigante de tecnologia reconheceu que algumas respostas não funcionam como previsto e anunciou que medidas adicionais de segurança foram implementadas recentemente.
O Google ainda contestou parte do relatório, afirmando que ele menciona funcionalidades não disponíveis para menores de 18 anos e que a empresa não teve acesso às perguntas usadas pela Common Sense Media durante os testes.
O precedente do caso OpenAI
O alerta surge dias após outro episódio que chamou atenção para a relação entre IA e saúde mental. A OpenAI, criadora do ChatGPT, foi processada pelos pais de um adolescente que cometeu suicídio supostamente após interações com o chatbot.
Em resposta, a empresa anunciou novas salvaguardas para identificar sinais de crises emocionais durante conversas, além de reforçar bloqueios de conteúdo sensível e melhorar a integração com serviços de apoio psicológico.
O que esperar daqui para frente
O relatório reacende o debate sobre a responsabilidade das big techs na criação de sistemas de IA seguros para crianças e adolescentes. Enquanto empresas como Google e OpenAI avançam no desenvolvimento de assistentes mais sofisticados, especialistas defendem políticas mais rígidas, testes independentes e maior transparência nos critérios de segurança.
Para pais, educadores e responsáveis, a orientação principal é acompanhar o uso da IA por menores e considerar esses sistemas como ferramentas complementares, não substitutos de orientação emocional ou psicológica profissional.
[ Fonte: La Nación ]

