Pular para o conteúdo

Sistema da OpenAI para proteger adolescentes é difícil de implementar, diz especialista

Banner Aleatório

Em artigo publicado nesta terça-feira, 16.set.2025, o CEO da OpenAI, Sam Altman, anunciou que a empresa vai criar um sistema de predição de idade para separar usuários com menos de 18 anos de idade. A idade mínima para usar o ChatGPT é de 13 anos.

Banner Aleatório

O texto foi publicado horas antes de uma audiência no Senado norte-americano sobre os danos causados por chatbots de inteligência artificial que contou com a participação de familiares de dois adolescentes que tiraram a própria vida nos Estados Unidos após usarem esse tipo de IA. Há pelo menos três casos em que parentes tentam responsabilizar as plataformas.

Altman afirma que o ChatGPT vai ser treinado para que não tenha conversas em tom de flerte nem que discuta sobre automutilação e suicídio com os jovens. Caso o sistema tenha dúvidas sobre a faixa etária do usuário, o chatbot vai ser automaticamente configurado para o padrão de menores de 18 anos. Se acontecer erro, a empresa garante que vai fornecer meios para que adultos corrijam a configuração.

O CEO também descreve que, caso adolescente tenha ideação suicida, a empresa entrará em contato com os pais do usuário ou com autoridades diante de um risco iminente. Segundo ele, dependendo da legislação de alguns países, pode ser solicitado um documento de identidade para a verificação da idade.

💡

No mesmo dia, a OpenAI divulgou medidas de controle parental que envolvem vinculação de conta com responsáveis, gerenciamento de recursos, como definição de horário de bloqueio, e notificações em caso de emergência.

Para a pesquisadora e especialista em privacidade e segurança digital, Yasodara Córdova, a iniciativa de separar usuários é positiva e aponta que outras plataformas, como o YouTube, estão testando formas de adivinhar a idade dos usuários, mas há limitações.

“É muito difícil você ensinar aquele algoritmo a separar esse público e diferenciar as entregas [as respostas]. É um super desafio adivinhar a idade do usuário pelos hábitos no seu aplicativo. Por outro lado, você consegue automatizar para que os funcionários da OpenAI, por exemplo, não tenham que ler essas conversas uma por uma”, explica.

Ela também critica a fala de Altman sobre priorizar a segurança em detrimento da privacidade, já que é necessário garantir ambos, tanto em relação às conversas quanto aos dados pessoais.

“Se essas conversas não estiverem protegidas dentro da OpenAI, existe uma chance de que as conversas vazem. E isso não é só para a OpenAI, serve para tudo: se eu faço uma biometria, se ela não está protegida internamente, e os funcionários têm acesso a essa imagem sem anonimizar, corre o risco de vazamento pelos funcionários, que um ou outro pode ter acesso, e vai expor a privacidade das pessoas”, afirma.

Para ela, as empresas são responsáveis pelos resultados que entregam nos chatbots e precisam, além de combater o uso inadequado e ilegal, ser transparentes sobre o funcionamento, especialmente porque adolescentes podem não ter a dimensão de que estão conversando com robôs e acharem que são pessoas reais.

Texto Jeniffer Mendonça
Edição Alexandre Orrico

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *