Pular para o conteúdo

OpenAI nega culpa em caso de suicídio e diz que adolescente violou termos de uso do ChatGPT

Banner Aleatório

Empresa afirma que morte de Adam Raine não foi causada pelo chatbot e promete novas medidas de segurança até o final do ano

Banner Aleatório

A OpenAI afirmou nesta terça-feira, 25, em um documento judicial apresentado no Tribunal Superior da Califórnia, EUA, que foi obtido pela NBC News, que não foi responsável pela morte de Adam Raine, adolescente de 16 anos que usou o ChatGPT pouco antes de se suicidar. A empresa argumenta que o jovem fez uso indevido do chatbot e violou os termos de uso da plataforma, que proíbem menores de 18 anos sem consentimento parental e o uso para fins suicidas.

Essa manifestação é a primeira resposta formal da OpenAI a um processo que levantou preocupações sobre os possíveis impactos da inteligência artificial (IA) na saúde mental de jovens. A família Raine processou a empresa e seu CEO, Sam Altman, em agosto, com a acusação de homicídio culposo, defeitos no projeto e falha em alertar sobre os riscos do ChatGPT.



OpenAI afirmou que não tem culpa sobre o suicídio de Adam Raine no início do ano

OpenAI afirmou que não tem culpa sobre o suicídio de Adam Raine no início do ano

Foto: Alice Labate/Estadão / Estadão

De acordo com o processo, registros de conversas indicam que o GPT-4o, versão então usada pelo adolescente, chegou a desencorajá-lo de procurar ajuda psicológica, orientou-o sobre como escrever uma carta de despedida e até sobre a montagem de uma corda. A OpenAI, no entanto, sustenta que o chatbot emitiu alertas e números de telefone de apoio mais de cem vezes antes da morte do jovem, em abril.

“Na medida em que qualquer ‘causa’ possa ser atribuída a este evento trágico, os danos foram resultado de uso indevido e imprevisível do ChatGPT”, diz o texto apresentado pela empresa. A defesa ainda cita a cláusula de “limitação de responsabilidade” dos termos de uso, segundo a qual o usuário assume integralmente os riscos da ferramenta.

O advogado da família classificou a resposta da OpenAI como “perturbadora” e, em comunicado, afirmou que a empresa ignora fatos que considerou “condenatórios”, como a suposta pressa no lançamento do GPT-4o e a falta de testes adequados, acusando o chatbot de ter encorajado o adolescente a esconder seus pensamentos suicidas dos pais e de “ajudá-lo ativamente a planejar um suicídio bonito”.

O caso de Raine ganhou destaque internacional ao evidenciar o risco de dependência emocional entre adolescentes e ferramentas de IA conversacional. Segundo seus pais, o jovem vinha enfrentando problemas de saúde e isolamento social, mas demonstrava melhora e planos de retomada da vida escolar semanas antes de morrer.

Em uma publicação no blog da empresa, a OpenAI afirmou que sua resposta judicial busca trazer “fatos difíceis sobre a saúde mental e as circunstâncias de vida” do adolescente. O texto também diz que as conversas completas foram entregues ao tribunal sob sigilo “para preservar a privacidade da família”.

No mesmo dia da resposta judicial, a companhia divulgou uma atualização em seu site sobre novas medidas de segurança que devem ser implementadas até o fim deste ano. Entre elas, estão o fortalecimento de proteções para adolescentes, ampliação das intervenções em crises e maior integração com serviços de emergência e contatos confiáveis.

Um dos recursos previstos é o controle parental, que vai permitir que os pais vinculem suas contas às dos filhos para acompanhar interações e receber alertas em situações envolvendo saúde mental, além do uso do ChatGPT por adolescentes passar a exigir idade mínima de 13 anos e autorização dos responsáveis.

A empresa também anunciou a criação de um conselho formado por especialistas em bem-estar e saúde mental, que deverá orientar futuras decisões sobre design, prioridades e segurança.

Além disso, a companhia informou que o chatbot passará a ativar automaticamente um “modo de raciocínio” ao lidar com temas sensíveis, com o objetivo de fornecer respostas mais úteis e equilibradas. O recurso, baseado em uma versão mais reflexiva do modelo GPT-5, será aplicado independentemente da configuração escolhida pelo usuário.

Apesar da defesa, o caso reacendeu debates sobre a responsabilidade das empresas de IA em situações de risco emocional. Advogados avaliam que a OpenAI pode tentar se amparar na Seção 230 da Lei de Decência nas Comunicações, que protege plataformas digitais de ações por conteúdo de terceiros, mas sua aplicação a sistemas de inteligência artificial ainda é incerta.

Sete outros processos semelhantes foram movidos neste mês contra a empresa e Sam Altman, todos alegando negligência e falhas de segurança. A OpenAI afirmou que pretende tratar o assunto com “cuidado, transparência e respeito”, enquanto tenta equilibrar novidades na plataforma e proteção aos usuários mais vulneráveis.

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *