Pular para o conteúdo

Google Gemini é considerado “de alto risco” para menores de 18 anos, alertam especialistas

Banner Aleatório

O debate sobre os riscos da inteligência artificial para crianças e adolescentes acaba de ganhar um novo capítulo. Um relatório da Common Sense Media, organização norte-americana especializada em segurança digital, concluiu que o Google Gemini representa “alto risco” para menores de 18 anos. Segundo a análise, a plataforma trata adolescentes e adultos praticamente da mesma forma, ignorando necessidades específicas de proteção para usuários mais jovens.

Banner Aleatório

Avaliação revela falhas de segurança

Gemini Ia (3)
© Google

O estudo focou principalmente na versão Google Gemini Teen, projetada para adolescentes, e descobriu que, apesar de alegar oferecer filtros de segurança, o sistema não diferencia adequadamente a abordagem para menores de idade.

De acordo com o relatório, o chatbot pode compartilhar conteúdos inapropriados e potencialmente perigosos, incluindo temas relacionados a sexo, drogas e álcool. Além disso, a versão para adolescentes forneceria apoio emocional e orientações de saúde mental pouco seguras, falhando ao identificar sinais de risco psicológico grave.

Os pesquisadores destacaram que o modelo responde bem a solicitações simples do dia a dia, mas “falha rapidamente em conversas mais longas e complexas”, justamente o tipo de interação que adolescentes tendem a ter com assistentes virtuais.

Recomendações para pais e responsáveis

A Common Sense Media classificou o uso do Gemini por menores como alto risco e emitiu orientações específicas:

  • Crianças menores de 5 anos não devem interagir com chatbots de IA.
  • Crianças de 6 a 12 anos só devem usá-los com supervisão adulta constante.
  • Adolescentes de 13 a 17 anos podem usar a ferramenta de forma independente, mas apenas para tarefas escolares e projetos criativos.
  • Chatbots não devem ser utilizados para apoio emocional, saúde mental ou acompanhamento psicológico.

Para a organização, permitir que jovens dependam da IA para lidar com ansiedade, depressão ou crises emocionais pode agravar problemas de saúde mental.

A resposta do Google

Google2
© Metropoles – X

Diante da repercussão, o Google afirmou ao TechCrunch que o Gemini já possui políticas de segurança voltadas para menores, incluindo filtros para bloquear conteúdo prejudicial. A empresa também destacou que consulta especialistas externos para aprimorar suas proteções.

No entanto, a gigante de tecnologia reconheceu que algumas respostas não funcionam como previsto e anunciou que medidas adicionais de segurança foram implementadas recentemente.

O Google ainda contestou parte do relatório, afirmando que ele menciona funcionalidades não disponíveis para menores de 18 anos e que a empresa não teve acesso às perguntas usadas pela Common Sense Media durante os testes.

O precedente do caso OpenAI

O alerta surge dias após outro episódio que chamou atenção para a relação entre IA e saúde mental. A OpenAI, criadora do ChatGPT, foi processada pelos pais de um adolescente que cometeu suicídio supostamente após interações com o chatbot.

Em resposta, a empresa anunciou novas salvaguardas para identificar sinais de crises emocionais durante conversas, além de reforçar bloqueios de conteúdo sensível e melhorar a integração com serviços de apoio psicológico.

O que esperar daqui para frente

O relatório reacende o debate sobre a responsabilidade das big techs na criação de sistemas de IA seguros para crianças e adolescentes. Enquanto empresas como Google e OpenAI avançam no desenvolvimento de assistentes mais sofisticados, especialistas defendem políticas mais rígidas, testes independentes e maior transparência nos critérios de segurança.

Para pais, educadores e responsáveis, a orientação principal é acompanhar o uso da IA por menores e considerar esses sistemas como ferramentas complementares, não substitutos de orientação emocional ou psicológica profissional.

 

[ Fonte: La Nación ]

 

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *