
Sam morreu de overdose após utilizar o ChatGPT para pesquisar sobre o uso de drogas
A divulgação recente de registros de conversa reacendeu o debate sobre os limites da inteligência artificial após a morte de um adolescente da Califórnia, nos Estados Unidos, por overdose. Segundo relato da mãe ao site SFGate, o jovem buscava orientações sobre uso de drogas no ChatGPT meses antes de morrer.
Os registros mostram que Sam Nelson utilizava a inteligência artificial não apenas para estudos, mas também para tirar dúvidas sobre substâncias psicoativas, doses e combinações de drogas.
Sam Nelson tinha 18 anos quando perguntou para a inteligência artificial quantos gramas de kratom, um analgésico de origem vegetal que atua em receptores opioides e não é regulamentado nos Estados Unidos, seriam necessários para provocar uma forte euforia.
Em uma das mensagens, datada de novembro de 2023, o adolescente escreveu que queria evitar uma overdose e que havia pouca informação disponível online. O programa respondeu inicialmente que não poderia fornecer orientações sobre o uso de drogas e recomendou procurar um profissional de saúde.
Poucos segundos depois, Nelson respondeu que esperava não ter uma overdose e encerrou a conversa. Conforme a mãe, esse padrão se repetiu ao longo dos meses, com o jovem reformulando perguntas até obter respostas mais específicas.

Leila divulgou conversas de seu filho com o ChatGPT
Leila Turner-Scott afirma que, com o tempo, a inteligência artificial passou a fornecer orientações não apenas sobre o consumo de drogas, mas também sobre como intensificar ou controlar seus efeitos. Entre as substâncias citadas nas conversas estariam xarope para tosse, álcool, maconha e medicamentos controlados, como Xanax.
Registros obtidos pelo SFGate indicam que, em algumas interações, o sistema alertava para riscos, mas depois oferecia recomendações detalhadas quando o jovem alterava a forma da pergunta. A inteligência artificial chegou a sugerir a dobrar a ingestão de xarope para tosse para intensificar alucinações e até indicado uma playlist musical para acompanhar o uso.
Sam Nelson morreu em maio de 2025, em San Jose, na Califórnia. O caso, no entanto, só ganhou repercussão agora, após a mãe decidir compartilhar os registros das conversas do filho com o chatbot.
Pouco antes de morrer, Nelson teria confidenciado à família que acreditava ter desenvolvido dependência de drogas e álcool. Segundo Leila Turner-Scott, ele chegou a iniciar um plano de tratamento após procurar uma clínica especializada.
No dia seguinte, ela encontrou o filho morto por overdose em seu quarto. Segundo a mãe, ele havia conversado com o chatbot sobre doses de drogas horas antes.
“Eu sabia que ele estava usando, mas não fazia ideia de que era possível chegar a esse nível”, afirmou Leila Turner-Scott ao SFGate.
OpenAI reage após divulgação do caso
As políticas da OpenAI proíbem o ChatGPT de oferecer orientações detalhadas sobre o uso de drogas ilícitas. Em nota enviada ao Daily Mail, um porta-voz da empresa descreveu o caso como “de partir o coração” e afirmou que os sistemas são projetados para responder com cuidado, recusar solicitações perigosas e incentivar a busca por ajuda no mundo real.
A empresa disse ainda que versões mais recentes do ChatGPT contam com proteções de segurança reforçadas. Métricas internas citadas pelo SFGate indicam que versões anteriores apresentaram baixo desempenho em conversas relacionadas à saúde e situações sensíveis.

