A OpenAI está implementando controles parentais para o ChatGPT na web e em dispositivos móveis, seguindo uma ação judicial movida pelos pais de um adolescente que morreu por suicídio após a startup de inteligência artificial, cujo chatbot supostamente o treinou sobre métodos de automutilação.
A empresa disse na segunda-feira que os controles permitirão que pais e adolescentes vinculem contas para garantir maior proteção aos adolescentes.
Os reguladores dos EUA estão cada vez mais escrutinando as Empresas de IA sobre os potenciais impactos negativos dos chatbots. Em agosto, a Reuters relatou como as regras de IA da Meta META permitiram conversas flertadoras com crianças.
Com as novas medidas, os pais poderão reduzir a exposição a conteúdo sensível, controlar se o ChatGPT se lembra de conversas anteriores e decidir se as conversas podem ser usadas para treinar os modelos da OpenAI, a empresa apoiada pela Microsoft disse em X.
Os pais também poderão definir horários de silêncio que bloqueiem o acesso em determinados momentos e desabilitem o modo de voz, bem como a geração e edição de imagens, disse a OpenAI. No entanto, os pais não terão acesso às transcrições de bate-papo de um adolescente, acrescentou a empresa.
Em casos raros em que sistemas e revisores treinados detectam sinais de um risco sério à segurança, os pais podem ser notificados apenas com as informações necessárias para dar suporte à segurança do adolescente, disse a OpenAI.
A Meta também anunciou novas salvaguardas para adolescentes aos seus produtos de IA no mês passado. A empresa disse que treinará os sistemas para evitar conversas flertadoras e discussões sobre automutilação ou suicídio com menores, além de restringir temporariamente o acesso a determinados personagens de IA.

