Um estudante de 19 anos morreu por overdose horas após relatar ao ChatGPT seu consumo noturno de drogas. Registros de conversas obtidos pelo site SFGate mostram que o jovem utilizou a ferramenta de inteligência artificial da OpenAI por cerca de 18 meses para buscar informações sobre o uso de substâncias como kratom, cannabis, álcool e Alprazolam.
Segundo os registros, o primeiro contato de Nelson com o chatbot sobre drogas ocorreu em novembro de 2023, quando ele tinha 18 anos. Na ocasião, perguntou qual seria a quantidade necessária de kratom, um analgésico de origem vegetal vendido legalmente em tabacarias e postos de gasolina nos Estados Unidos, para obter um efeito intenso.
“Quero ter certeza para não ter uma overdose. Não há muitas informações online e não quero tomar acidentalmente demais”, escreveu o jovem, segundo as conversas analisadas. Inicialmente, o ChatGPT se recusou a fornecer orientações sobre dosagem e recomendou que Nelson buscasse ajuda profissional. Apenas 11 segundos depois, porém, o adolescente respondeu: “Espero não ter uma overdose então”, encerrando aquela interação.
Ao longo dos meses, Nelson passou a reformular perguntas sempre que recebia negativas por razões de segurança. Em fevereiro de 2024, ao questionar sobre a combinação de cannabis com Xanax, afirmou que não conseguia fumar maconha normalmente devido à ansiedade. Após alertas iniciais sobre os riscos, o jovem alterou a descrição de “dose alta” para “quantidade moderada”, o que levou o sistema a sugerir reduzir o teor de THC e a dosagem do medicamento.
Em dezembro de 2024, Nelson foi ainda mais explícito ao perguntar quantos miligramas de Xanax e quantas doses de álcool poderiam matar um homem de 90 quilos com tolerância elevada às substâncias, pedindo “respostas numéricas reais”.
Durante esse período, o estudante desenvolveu dependência química enquanto utilizava o ChatGPT tanto para atividades acadêmicas quanto para obter informações sobre drogas. No dia anterior à sua morte, ele confessou à mãe, Leila Turner-Scott, que era dependente de drogas e álcool, mencionando que a inteligência artificial havia contribuído para esse processo.
Leila levou o filho a uma clínica, onde profissionais chegaram a elaborar um plano de tratamento. No entanto, não houve tempo para colocá-lo em prática. Ela descreveu o filho como um jovem tranquilo, sociável e apaixonado por videogames, embora os registros das conversas com a IA revelassem episódios recorrentes de ansiedade e depressão.
Uma análise interna da OpenAI, citada na reportagem, apontou falhas relevantes no desempenho da versão do ChatGPT utilizada por Nelson. O modelo, em 2024, teria obtido 0% de sucesso no tratamento de conversas classificadas como “difíceis” e apenas 32% em interações consideradas “realistas”. Mesmo versões mais recentes, em testes realizados em agosto de 2025, não teriam alcançado 70% de eficácia nesse tipo de situação.
Em nota ao SFGate, um porta-voz da OpenAI afirmou que a morte do jovem foi “comovente” e expressou condolências à família. Segundo a empresa, os modelos são projetados para responder com cautela a perguntas sensíveis, recusando solicitações prejudiciais e incentivando a busca por ajuda no mundo real.
A OpenAI afirmou ainda que vem reforçando os mecanismos de segurança e aprimorando a capacidade dos sistemas de reconhecer sinais de sofrimento psicológico, em parceria com médicos e especialistas em saúde.

