Na segunda-feira, 29, a OpenAI implementou controles parentais no ChatGPT em resposta à tendência atual de adolescentes recorrerem ao chatbot de inteligência artificial (IA) para obter ajuda com os trabalhos escolares, a vida cotidiana e a saúde mental.
A companhia estava pressionada após uma ação judicial por homicídio culposo ter sido movida contra a OpenAI pelos pais de Adam Raine, um jovem de 16 anos que morreu em abril na Califórnia. De acordo com seus pais, o ChatGPT forneceu a Adam informações sobre métodos de suicídio nos últimos meses de sua vida.

OpenAI estabelece medidas de controle parental após episódios de suicídio envolvendo o chatbot Foto: Daniel Teixeira/Estadão
Os controles parentais do ChatGPT, anunciados no início de setembro, foram desenvolvidos pela OpenAI em parceria com a Common Sense Media, uma organização sem fins lucrativos que fornece classificações baseadas na idade de entretenimento e tecnologia para os pais.
Aqui está o que você precisa saber sobre os novos recursos.
Os pais podem supervisionar as contas de seus filhos adolescentes
Para estabelecer o controle da conta dos filhos, os pais devem vincular suas contas às conta dos filhos, de acordo com uma nova página de recursos. Os pais então ganharão alguns controles sobre a conta do filho, como a opção de reduzir o conteúdo sensível.
Os pais poderão definir horários específicos em que o ChatGPT pode ser usado. O modo de voz do bot, o salvamento de memória e os recursos de geração de imagens podem ser ativados e desativados.
Há também uma opção para impedir que o ChatGPT use suas conversas com adolescentes para melhorar seus modelos.
Os pais serão notificados sobre possíveis casos de automutilação
Em comunicado divulgado na segunda-feira, a OpenAI afirmou que os pais serão notificados por e-mail, mensagem de texto ou alerta push se o ChatGPT reconhecer “sinais potenciais de que um adolescente possa estar pensando em se machucar”, a menos que os pais tenham optado por não receber tais notificações. Os pais receberão um aviso sobre um risco à segurança, sem informações específicas sobre as conversas de seus filhos.
O ChatGPT foi treinado para incentivar os usuários em geral a entrar em contato com uma linha de ajuda se detectar sinais de sofrimento mental ou automutilação. Quando detecta tais sinais em um adolescente, uma “pequena equipe de pessoas especialmente treinadas analisa a situação”, disse a OpenAI no comunicado. O comunicado não especificou quem eram essas pessoas.
A OpenAI acrescentou que está trabalhando em um processo para entrar em contato com as autoridades policiais e serviços de emergência caso o ChatGPT detecte uma ameaça, mas não consiga entrar em contato com os pais.
“Nenhum sistema é perfeito, e sabemos que às vezes podemos dar um alarme quando não há perigo real, mas achamos que é melhor agir e alertar os pais para que eles possam intervir do que ficar em silêncio”, disse o comunicado.
Os adolescentes podem contornar os controles
A OpenAI disse na segunda-feira que ainda está desenvolvendo um sistema de previsão de idade para ajudar o ChatGPT a aplicar automaticamente “configurações adequadas para adolescentes” se achar que um usuário tem menos de 18 anos.
Com os novos recursos, os pais serão notificados se um adolescente desconectar sua conta da conta dos pais. Mas isso não impedirá que um adolescente use a versão básica do ChatGPT sem uma conta.
Adam Raine, o adolescente da Califórnia que morreu em abril, havia aprendido a contornar as proteções do ChatGPT dizendo que usaria as informações para escrever uma história.
“As proteções ajudam, mas não são infalíveis e podem ser contornadas se alguém estiver tentando intencionalmente burlá-las”, disse a OpenAI.
Na declaração com a OpenAI na segunda-feira, Robbie Torney, diretor sênior de programas de IA da Common Sense Media, disse que os controles parentais “funcionariam melhor quando combinados com conversas contínuas sobre o uso responsável da IA, regras familiares claras sobre tecnologia e envolvimento ativo na compreensão do que seus filhos adolescentes estão fazendo online”.
Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

