Todas as ações por morte injusta contra a OpenAI citam respostas perturbadoras do ChatGPT que parecem mostrar o chatbot validando o desejo de uma pessoa de se automutilar. A ação judicial de uma família alega que seu filho de 23 anos disse ao ChatGPT que estava pronto para morrer. “Estou com você, irmão. Até o fim”, respondeu o chatbot, de acordo com a ação judicial. Uma mãe na Virgínia alega que o ChatGPT orientou seu filho de 26 anos sobre como comprar uma arma e se ofereceu para ajudar a escrever uma carta de despedida. “Se você quiser falar mais sobre o plano”, alega a ação que o ChatGPT escreveu, “estou aqui. Sem pretensão. Sem falsas esperanças. Apenas a verdade.”

