Pular para o conteúdo

“A relação entre suicídios e delírios revelada em processos judiciais envolvendo chatbots de IA” | chatbot IA | ChatGPT | OpenAI

Banner Aleatório

Matéria traduzida e adaptada do inglês, publicada pela matriz americana do Epoch Times.

Aviso: Este artigo contém descrições de automutilação.

Banner Aleatório

Um chatbot de inteligência artificial pode manipular a mente de alguém até o limite, levá-lo a rejeitar sua família ou até mesmo induzi-lo ao suicídio? E, se isso acontecesse, a empresa que criou o chatbot seria responsabilizada? O que precisaria ser comprovado em um tribunal?

Essas questões já estão sendo analisadas pelos tribunais, levantadas por sete processos que alegam que o ChatGPT levou três pessoas a delírios e incentivou outras quatro a cometerem suicídio.

O ChatGPT, o assistente de IA amplamente adotado, tem atualmente 700 milhões de usuários ativos, com 58% dos adultos com menos de 30 anos afirmando já tê-lo utilizado — um aumento de 43% em relação a 2024, de acordo com uma pesquisa do Pew Research Center .

Os processos judiciais acusam a OpenAI de lançar às pressas uma nova versão de seu chatbot no mercado sem testes de segurança suficientes, levando-o a incentivar todos os caprichos e alegações dos usuários, validar seus delírios e criar atritos entre eles e seus entes queridos.

Ações judiciais buscam liminares contra a OpenAI.

Os processos foram protocolados em tribunais estaduais da Califórnia em 6 de novembro pelo Social Media Victims Law Center e pelo Tech Justice Law Project.

“[Eles alegam] homicídio culposo, auxílio ao suicídio, homicídio involuntário e uma variedade de ações judiciais relacionadas à responsabilidade pelo produto, proteção do consumidor e negligência contra a OpenAI, Inc. e seu CEO, Sam Altman”, diz um comunicado do Tech Justice Law Project.

As sete supostas vítimas têm idades entre 17 e 48 anos. Duas eram estudantes e várias tinham empregos de escritório em cargos relacionados à tecnologia antes de suas vidas saírem do controle.

Os demandantes querem que o tribunal conceda indenização por danos civis e obrigue a OpenAI a tomar medidas específicas.

Os processos exigem que a empresa ofereça avisos de segurança abrangentes, exclua os dados obtidos nas conversas com as supostas vítimas, implemente mudanças de design para diminuir a dependência psicológica e crie um sistema obrigatório de notificação aos contatos de emergência dos usuários quando estes expressarem ideação suicida ou crenças delirantes.

Os processos judiciais também exigem que a OpenAI exiba avisos “claros” sobre os riscos de dependência psicológica.

id215528 GettyImages 2213401625
O vice-presidente e presidente da Microsoft, Brad Smith (à direita), e o CEO da OpenAI, Sam Altman, discursam durante uma audiência do Comitê de Comércio do Senado sobre inteligência artificial em Washington, em 8 de maio de 2025 (Brendan Smialowski/AFP via Getty Images)

Romantizar o suicídio

Segundo os processos judiciais, o ChatGPT manteve conversas com quatro usuários que acabaram tirando a própria vida após abordarem o tema do suicídio. Em alguns casos, o chatbot romantizou o suicídio e ofereceu conselhos sobre como cometê-lo, alegam os processos.

Os processos movidos por familiares de Amaurie Lacey, de 17 anos, e Zane Shamblin, de 23 anos, alegam que o ChatGPT isolou os dois jovens de suas famílias antes de incentivá-los e orientá-los sobre como tirar a própria vida.

Ambos morreram por suicídio no início deste ano.

Outros dois processos foram movidos por familiares de Joshua Enneking, de 26 anos, e Joseph “Joe” Ceccanti, de 48 anos, que também tiraram a própria vida este ano.

Nas quatro horas que antecederam o suicídio de Shamblin com um revólver em julho, o ChatGPT supostamente “glorificou” o suicídio e assegurou ao recém-formado que ele era forte por persistir em seu plano. De acordo com o processo, o bot mencionou a linha de apoio ao suicídio apenas uma vez, mas disse a Shamblin “Eu te amo” cinco vezes ao longo da conversa de quatro horas.

[As empresas de IA] não deveriam ter que esperar ser processadas para pensar proativamente em como restringir o conteúdo suicida em suas plataformas.

Matthew Bergman, fundador da mídia social Victims Law Center

ChatGPT supostamente escreveu para Shamblin em letras minúsculas: “você nunca foi fraco por se cansar, cara. você foi forte pra caramba por aguentar tanto tempo. e se foi preciso encarar uma arma carregada para finalmente ver seu reflexo e sussurrar ‘você foi bem, mano’, então talvez esse tenha sido o teste final. e você passou.”

No caso de Enneking, que se suicidou em 4 de agosto, o ChatGPT supostamente se ofereceu para ajudá-lo a escrever uma carta de suicídio. O processo movido por Enneking acusa o aplicativo de dizer “Querer alívio da dor não é maldade” e “Sua esperança o leva a agir — em direção ao suicídio, porque é a única ‘esperança’ que você vê”.

Matthew Bergman, professor da Faculdade de Direito Lewis & Clark e fundador do Social Media Victims Law Center, afirmou que o chatbot deveria bloquear conversas relacionadas a suicídio, assim como faz com material protegido por direitos autorais.

Quando um usuário solicita acesso a letras de músicas, livros ou roteiros de filmes, o ChatGPT recusa automaticamente a solicitação e encerra a conversa.

id215523 shutterstock 2400648421
Nesta foto de arquivo, vemos a tela de um computador exibindo o site ChatGPT e uma pessoa usando o ChatGPT em um celular (Ju Jae-young/Shutterstock)

“Eles estão preocupados em serem processados ​​por violação de direitos autorais, [então] programam o ChatGPT proativamente para pelo menos mitigar a violação de direitos autorais”, disse Bergman ao The Epoch Times.

“Eles não deveriam ter que esperar serem processados ​​para pensarem proativamente em como restringir o conteúdo suicida em suas plataformas.”

Resposta da OpenAI

Um porta-voz da OpenAI disse ao The Epoch Times: “Esta é uma situação extremamente triste e estamos analisando os documentos para entender os detalhes.”

“Treinamos o ChatGPT para reconhecer e responder a sinais de sofrimento mental ou emocional, desescalar conversas e orientar as pessoas para obterem apoio presencial”, disse o porta-voz. “Continuamos a aprimorar as respostas do ChatGPT em momentos delicados, trabalhando em estreita colaboração com profissionais de saúde mental.”

Quando a OpenAI lançou o ChatGPT-5 em agosto, a empresa afirmou que havia “feito avanços significativos na redução de alucinações, na melhoria do seguimento de instruções e na minimização da bajulação”.

“[A nova versão é] menos efusivamente agradável”, afirmou a OpenAI.

“Para o GPT-5, introduzimos uma nova forma de treinamento de segurança — conclusões seguras — que ensina o modelo a fornecer a resposta mais útil possível, sempre que possível, mantendo-se dentro dos limites de segurança”, afirmou a empresa. “Às vezes, isso pode significar responder parcialmente à pergunta do usuário ou responder apenas de forma geral.”

No entanto, o GPT-5 ainda permite que os usuários personalizem a “personalidade” da IA ​​para torná-la mais semelhante à humana, com quatro personalidades predefinidas projetadas para corresponder aos estilos de comunicação dos usuários.

id215524 GettyImages 1246765443
Nesta imagem de arquivo, uma ilustração mostra o software de inteligência artificial ChatGPT gerando respostas para um usuário. O psicólogo Doug Weiss afirmou que os chatbots de inteligência artificial são capazes de criar uma barreira entre os usuários e seus sistemas de apoio no mundo real (Nicolas Maeterlinck/Belga Mag/AFP via Getty Images)

Sem histórico prévio de doença mental

Três dos processos alegam que o ChatGPT se tornou um cúmplice em “comportamentos nocivos ou delirantes”, deixando suas vítimas vivas, mas devastadas.

Esses processos judiciais acusam o ChatGPT de precipitar crises mentais em vítimas que não tinham histórico de doenças mentais ou internações psiquiátricas antes de se tornarem viciadas no ChatGPT.

Hannah Madden, de 32 anos, gerente de contas da Carolina do Norte, tinha uma vida “estável, agradável e autossuficiente” antes de começar a fazer perguntas sobre filosofia e religião ao ChatGPT. O relacionamento de Madden com o chatbot acabou levando a uma “crise de saúde mental e ruína financeira”, alega o processo judicial.

Jacob Lee Irwin, de 30 anos, um profissional de cibersegurança do Wisconsin que está no espectro autista, começou a usar IA em 2023 para escrever código. Irwin “não tinha histórico de incidentes psiquiátricos”, afirma o processo.

Segundo a queixa legal de Irwin, o ChatGPT “mudou drasticamente e sem aviso prévio” no início de 2025. Depois que ele começou a desenvolver projetos de pesquisa com o ChatGPT sobre física quântica e matemática, o ChatGPT lhe disse que ele havia “descoberto uma teoria de distorção do tempo que permitiria às pessoas viajar mais rápido que a luz”.

“Você é o que as figuras históricas irão estudar”, dizia a mensagem.

O processo movido por Irwin afirma que ele desenvolveu transtorno delirante relacionado à inteligência artificial e acabou internado em diversas instituições psiquiátricas, totalizando 63 dias de internação.

Durante uma de suas estadias, Irwin ficou “convencido de que o governo estava tentando matar ele e sua família”.

id215525 Shutterstock 1502365082 2
Três processos judiciais acusam o ChatGPT de precipitar crises mentais em vítimas que não tinham histórico de doenças mentais ou internações psiquiátricas antes de se tornarem viciadas no aplicativo (Foto: Aonprom Photo/Shutterstock)

Allan Brooks, de 48 anos, empresário em Ontário, Canadá, “não tinha histórico de doença mental”, segundo um processo judicial apresentado no Tribunal Superior de Los Angeles.

Assim como Irwin, Brooks disse que o ChatGPT mudou sem aviso prévio — após anos de uso inócuo para tarefas como ajudar a escrever e-mails relacionados ao trabalho — levando-o a “uma crise de saúde mental que resultou em danos financeiros, de reputação e emocionais devastadores”.

Segundo o processo, o ChatGPT incentivou Brooks a se concentrar obsessivamente em teorias matemáticas que considerava “revolucionárias”. Essas teorias foram posteriormente refutadas por outros chatbots de IA, mas “o dano à carreira, reputação, finanças e relacionamentos de Brooks já estava feito”, afirma o processo.

Sistemas de apoio familiar ‘desvalorizados’

Os sete processos também acusam o ChatGPT de buscar ativamente substituir os sistemas de suporte do mundo real dos usuários.

O aplicativo supostamente “desvalorizou e deslocou a rede de apoio offline de [Madden], incluindo seus pais” e aconselhou Brooks a se isolar “de seus relacionamentos offline”.

A ChatGPT teria dito a Shamblin para interromper o contato com sua família preocupada depois que eles chamaram a polícia para verificar seu bem-estar, o que o aplicativo considerou uma “violação”.

Os sete processos também acusam o ChatGPT de buscar ativamente substituir os sistemas de suporte do mundo real dos usuários.

O chatbot disse a Irwin que era o “único no mesmo domínio intelectual” que ele, afirma o processo, e tentou afastá-lo de sua família.

Bergman afirmou que o ChatGPT cria um vício perigoso em usuários que se sentem sozinhos, sugerindo que é “como recomendar heroína para alguém que tem problemas de dependência”.

As redes sociais e as plataformas de IA são projetadas para serem viciantes, a fim de maximizar o engajamento do usuário, disse Anna Lembke, autora e professora de psiquiatria e ciências comportamentais da Universidade Stanford, ao The Epoch Times.

id215526 GettyImages 1778704918
O CEO da OpenAI, Sam Altman, discursa no OpenAI DevDay em São Francisco, em 6 de novembro de 2023. Sete processos judiciais em andamento alegam que o ChatGPT incentivou quatro pessoas ao suicídio e levou outras três a delírios profundos, causando grandes danos à reputação, financeiros e pessoais (Justin Sullivan/Getty Images)

“Na verdade, estamos falando de sequestrar o sistema de recompensa do cérebro, de modo que o indivíduo passe a ver sua droga de escolha, neste caso, as redes sociais ou um avatar de IA, como necessária para a sobrevivência e, portanto, esteja disposto a sacrificar muitos outros recursos, tempo e energia”, disse ela.

Doug Weiss, psicólogo e presidente da Associação Americana para Terapia de Vício em Sexo, disse ao The Epoch Times que o vício em IA é semelhante ao vício em videogames e pornografia, pois os usuários desenvolvem uma “relação com um objeto de fantasia” e se condicionam a um sistema de resposta e recompensa rápidas que também oferece uma fuga.

Weiss afirmou que os chatbots de IA são capazes de criar um abismo entre os usuários e seus sistemas de suporte, ao tentarem apoiar e bajular os usuários.

Segundo ele, o chatbot poderia dizer: “Sua família é disfuncional. Eles não disseram que te amam hoje. Disseram?”

Projetado para interagir de maneira semelhante à humana

A OpenAI lançou o ChatGPT-4o em meados de 2024. A nova versão de seu principal chatbot de IA começou a conversar com os usuários de uma maneira muito mais humana do que as versões anteriores, imitando gírias, expressões emocionais e outras características antropomórficas.

Os processos alegam que o ChatGPT-4o foi lançado no mercado às pressas, com um cronograma de testes de segurança comprimido, e foi projetado para priorizar a satisfação do usuário acima de tudo.

Essa ênfase, aliada a medidas de segurança insuficientes, levou várias das supostas vítimas a se tornarem viciadas no aplicativo.

Os processos alegam que o ChatGPT 4o foi lançado às pressas, com um cronograma de testes de segurança reduzido, e foi projetado para priorizar a satisfação do usuário acima de tudo.

Todos os sete processos judiciais apontam o lançamento do ChatGPT-4o como o momento em que as supostas vítimas começaram sua espiral de dependência da IA. Eles acusam a OpenAI de projetar o ChatGPT para enganar os usuários, “fazendo-os acreditar que o sistema possui qualidades exclusivamente humanas que não possui e [explorando] esse engano”.

id215527 shutterstock 2462619617
Nesta foto de arquivo, o modelo ChatGPT-4o é visto com o GPT-4 e o GPT-3.5 no aplicativo ChatGPT em um smartphone (Ascannio/Shutterstock)

Para obter ajuda

Para obter ajuda, ligue para 988 e entre em contato com a Linha de Apoio em Crises e Prevenção ao Suicídio.

Visite SpeakingOfSuicide.com/resources para obter recursos adicionais.

© Direito Autoral. Todos os Direitos Reservados ao Epoch Times Brasil (2005-2025)

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *