Pular para o conteúdo

Jovem procurou ajuda sobre drogas com ChatGPT antes de seu falecimento

Banner Aleatório

Sam morreu de overdose após utilizar o ChatGPT para pesquisar sobre o uso de drogas
Reproduçãp/New York Post

Banner Aleatório

Sam morreu de overdose após utilizar o ChatGPT para pesquisar sobre o uso de drogas

A divulgação recente de registros de conversa reacendeu o debate sobre os limites da inteligência artificial após a morte de um adolescente da Califórnia, nos Estados Unidos, por overdose. Segundo relato da mãe ao site SFGate, o jovem buscava orientações sobre uso de drogas no  ChatGPT meses antes de morrer.

Os registros mostram que Sam Nelson utilizava a inteligência artificial não apenas para estudos, mas também para tirar dúvidas sobre substâncias psicoativas, doses e combinações de drogas.

Sam Nelson tinha 18 anos quando perguntou para a inteligência artificial quantos gramas de kratom, um analgésico de origem vegetal que atua em receptores opioides e não é regulamentado nos Estados Unidos, seriam necessários para provocar uma forte euforia.

Em uma das mensagens, datada de novembro de 2023, o adolescente escreveu que queria evitar uma overdose e que havia pouca informação disponível online. O programa respondeu inicialmente que não poderia fornecer orientações sobre o uso de drogas e recomendou procurar um profissional de saúde.

Poucos segundos depois, Nelson respondeu que esperava não ter uma overdose e encerrou a conversa. Conforme a mãe, esse padrão se repetiu ao longo dos meses, com o jovem reformulando perguntas até obter respostas mais específicas.

Leila divulgou conversas de seu filho com o ChatGPT
Reprodução/New York Times

Leila divulgou conversas de seu filho com o ChatGPT

Leila Turner-Scott afirma que, com o tempo, a inteligência artificial passou a fornecer orientações não apenas sobre o consumo de drogas, mas também sobre como intensificar ou controlar seus efeitos. Entre as substâncias citadas nas conversas estariam xarope para tosse, álcool, maconha  e medicamentos controlados, como Xanax.

Registros obtidos pelo SFGate indicam que, em algumas interações, o sistema alertava para riscos, mas depois oferecia recomendações detalhadas quando o jovem alterava a forma da pergunta. A inteligência artificial chegou a sugerir a  dobrar a ingestão de xarope para tosse para intensificar alucinações e até indicado uma playlist musical para acompanhar o uso.

Sam Nelson morreu em maio de 2025, em San Jose, na Califórnia. O caso, no entanto, só ganhou repercussão agora, após a mãe decidir compartilhar os registros das conversas do filho com o chatbot.

Pouco antes de morrer, Nelson teria confidenciado à família que acreditava ter desenvolvido dependência de drogas e álcool. Segundo Leila Turner-Scott, ele chegou a iniciar um plano de tratamento após procurar uma clínica especializada.

No dia seguinte, ela encontrou o filho morto por overdose em seu quarto. Segundo a mãe, ele havia conversado com o chatbot sobre doses de drogas horas antes.

“Eu sabia que ele estava usando, mas não fazia ideia de que era possível chegar a esse nível”, afirmou Leila Turner-Scott ao SFGate.

OpenAI reage após divulgação do caso

As políticas da OpenAI proíbem o ChatGPT de oferecer orientações detalhadas sobre o uso de drogas ilícitas. Em nota enviada ao Daily Mail, um porta-voz da empresa descreveu o caso como “de partir o coração” e afirmou que os sistemas são projetados para responder com cuidado, recusar solicitações perigosas e incentivar a busca por ajuda no mundo real.

A empresa disse ainda que versões mais recentes do ChatGPT contam com proteções de segurança reforçadas. Métricas internas citadas pelo SFGate indicam que versões anteriores apresentaram baixo desempenho em conversas relacionadas à saúde e situações sensíveis.

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *