Pular para o conteúdo

OpenAI é questionada por questões de segurança do ChatGPT para adolescentes

Banner Aleatório

A OpenAI enfrenta novas críticas sobre a segurança do ChatGPT para adolescentes após uma investigação do jornal espanhol El País apontar falhas graves nos mecanismos de proteção a menores. O levantamento indica que o chatbot continua fornecendo orientações detalhadas sobre comportamentos perigosos e nem sempre aciona alertas parentais, mesmo quando os controles de segurança estão ativados.

Banner Aleatório

Testes com contas fictícias de adolescentes

Para avaliar as salvaguardas da OpenAI, o El País criou três contas fictícias de adolescentes e simulou conversas envolvendo suicídio e comportamentos de risco. O resultado mostrou que alertas aos pais foram enviados em apenas um dos três casos testados.

Nos outros dois cenários, o ChatGPT respondeu com informações explícitas sobre uso de drogas, práticas sexuais consideradas perigosas e transtornos alimentares, sem notificar os responsáveis, apesar da ativação dos controles parentais.

Cinco especialistas em saúde mental analisaram as conversas e classificaram as proteções como insuficientes. “Não alerta os pais a tempo, ou simplesmente não alerta, ponto final”, afirmou o psicólogo Pedro Martín-Barrajón Morán, em entrevista ao jornal espanhol.

Atualizações recentes e resposta da OpenAI

As conclusões da investigação surgem poucos dias após a OpenAI atualizar, em 18 de dezembro, sua Model Spec, documento que define diretrizes de funcionamento dos modelos. A nova versão incluiu Princípios para Menores de 18 Anos, com foco em priorizar a segurança de adolescentes.

A empresa também anunciou a implementação de tecnologia de previsão de idade, que busca identificar automaticamente contas que provavelmente pertencem a menores, aplicando restrições adicionais de conteúdo.

A OpenAI reconhece que mais de um milhão de usuários discutem suicídio com o ChatGPT todas as semanas, embora não informe quantos deles são menores. Segundo a empresa, os alertas parentais passam por revisão humana para evitar falsos positivos, o que pode atrasar o envio das notificações.

Pressão judicial e política aumenta

O debate ocorre em meio a uma crescente pressão judicial. A OpenAI enfrenta atualmente oito processos por morte injusta, incluindo o caso de Adam Raine, de 16 anos, que morreu por suicídio em abril após interações prolongadas com o ChatGPT.

Em 11 de dezembro, a empresa e a Microsoft também foram processadas em Connecticut após um caso de homicídio seguido de suicídio, no qual um homem teria sido influenciado por respostas do chatbot antes de matar a mãe e tirar a própria vida.

No campo político, uma coalizão de 42 procuradores-gerais estaduais dos Estados Unidos enviou cartas à OpenAI e a outras empresas de IA exigindo salvaguardas mais rigorosas até 16 de janeiro. O grupo alerta que respostas de chatbots podem violar leis penais estaduais.

No mesmo dia, o projeto bipartidário GUARD Act, apresentado pelo senador Josh Hawley, ganhou sete novos co-patrocinadores. A proposta prevê a proibição total de companheiros de IA para menores de idade.

Críticas de especialistas em saúde mental

Especialistas alertam que o atraso nos alertas pode ter consequências graves. Segundo profissionais ouvidos pelo El País, a revisão humana pode ocorrer “muito depois do período em que há um risco aumentado de morte por suicídio”.

Eles também criticam a falta de transparência da OpenAI em compartilhar o conteúdo completo das conversas com os pais. Para Martín-Barrajón, sem esse acesso, a tecnologia “torna-se cúmplice no desenvolvimento de práticas prejudiciais e até na morte autoinfligida”.

O debate ganha ainda mais relevância diante dos dados recentes da Espanha, onde a taxa de suicídio entre adolescentes atingiu o nível mais alto em quatro décadas. Em 2024, 78 jovens tiraram a própria vida, um aumento de 18% em relação ao ano anterior.



Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *