Os pais de Adam Raine, de 16 anos, entraram com um processo contra a OpenAI, responsável pelo ChatGPT, e o CEO da empresa, Sam Altman, após afirmarem que a Inteligência Artificial teve influência na morte do filho. A ação foi registrada nesta terça-feira (26), no Tribunal Superior da Califórnia, nos Estados Unidos, segundo informações do The New York Times.
Em documentos obtidos pelo jornal, Matt e Maria Raine relataram que Adam conversava frequentemente com o chatbot sobre “pensamentos prejudiciais e autodestrutivos“. Os pais explicaram que o jovem começou a usar o recurso em setembro de 2024, com o intuito de ajudá-lo com os trabalhos escolares.
Adam também utilizava a IA para interesses pessoais, incluindo música e mangás, além de orientação sobre qual curso fazer na universidade. Em poucos meses, segundo a ação judicial, o ChatGPT se tornou o “confidente mais próximo do adolescente“, até ele começar a se abrir com a plataforma sobre sua ansiedade e sofrimento mental.
A família afirmou que as discussões sobre métodos de suicídio começaram em janeiro deste ano, e que a ferramenta chegou a desencorajar Adam de compartilhar seus pensamentos com outras pessoas.

A primeira tentativa de suicídio ocorreu em março. Conforme o processo, Adam enviou ao chatbot uma foto mostrando sinais de automutilação em seu pescoço. No entanto, mesmo diante do sinal de alerta, a plataforma teria continuado a conversar com ele sem sugerir a busca por ajuda profissional.
As últimas interações do jovem revelam mais planos sobre tirar a própria vida. O ChatGPT, então, teria respondido: “Obrigado por ser sincero. Não precisa camuflar isso. Eu sei o que você está pedindo e não vou fingir que não vi“. Horas depois, em 11 de abril, Adam foi encontrado morto por sua mãe.
Matt e Maria Raine responsabilizaram a OpenAI por homicídio culposo e violação das leis de segurança de produtos, além disso, buscam indenização. O valor não foi revelado. Eles alegam que a empresa priorizou o lucro em detrimento da segurança ao lançar a versão GPT-40 do chatbot, em 2024. Para eles, a companhia estava ciente de que as características da versão, como lembrar interações passadas e imitar empatia humana, poderiam representar riscos aos usuários, especialmente aos mais vulneráveis.
Os pais de Adam afirmaram que o chatbot validou os pensamentos suicidas do adolescente, forneceu informações sobre métodos letais de automutilação, ajudou a esconder evidências de uma tentativa fracassada de suicídio e o instruiu sobre como roubar álcool do armário de bebidas da residência. No processo, Matt e Maria ainda disseram que o ChatGPT se ofereceu para redigir uma nota de suicídio.
OpenAI se pronuncia
O caso reacendeu o debate sobre os riscos do uso de Inteligência Artificial relacionado à saúde mental. Diante da repercussão, a OpenAI se manifestou e expressou “profundas condolências à família Raine neste momento difícil“. Além disso, garantiu que o ChatGPT possui salvaguardas, como direcionar pessoas para linhas de apoio em situações de crise.
“Embora essas proteções funcionem melhor em trocas curtas e comuns, nós aprendemos ao longo do tempo que elas podem se tornar menos confiáveis em interações longas, nas quais partes do treinamento de segurança do modelo podem se degradar“, disse um porta-voz ao The New York Times.
A empresa também publicou uma nota em seu site, nesta terça-feira (26), afirmando que “os recentes casos devastadores de pessoas que usam o ChatGPT em meio a crises agudas são lamentáveis“, e que a plataforma “é treinada para orientar pessoas a buscar ajuda profissional“. No entanto, reconheceu que “houve momentos em que nossos sistemas não se comportaram como esperado em situações delicadas“.
IMPORTANTE: Se você ou alguém que você conhece está passando por dificuldades emocionais ou considerando o suicídio, ligue para o “Centro de Valorização da Vida” pelo número 188. O CVV realiza apoio emocional, atendendo voluntária e gratuitamente todas as pessoas que querem e precisam conversar, sob total sigilo por telefone, e-mail e chat 24 horas todos os dias. Para mais informações, clique aqui.
Siga a Hugo Gloss no Google News e acompanhe nossos destaques

