Pular para o conteúdo

Homem troca sal por veneno após dica do ChatGPT e acaba internado com alucinações

Banner Aleatório

Paciente de 60 anos sofreu intoxicação grave após acreditar que poderia substituir o sal de cozinha

Banner Aleatório

Um homem de 60 anos precisou ser internado em estado grave após substituir o sal de cozinha por brometo de sódio, uma substância tóxica usada em contextos industriais. O caso foi relatado no periódico Annals of Internal Medicine: Clinical Cases e ganhou repercussão internacional neste sábado (16).

A decisão foi tomada após o paciente ler sobre alternativas ao sal e interpretar, de forma equivocada, informações do ChatGPT. A ferramenta de inteligência artificial havia citado o uso da substância em outros contextos, mas nunca recomendou seu consumo humano. Mesmo assim, o homem comprou o produto pela internet e passou a utilizá-lo na alimentação.

O resultado foi uma intoxicação grave conhecida como bromismo, que causou alucinações, paranoia, insônia e lesões na pele. Em menos de 24 horas, ele tentou fugir do hospital devido a delírios e foi internado compulsoriamente em unidade psiquiátrica. O tratamento durou três semanas e não existe antídoto para esse tipo de envenenamento.

Segundo especialistas, o caso evidencia os riscos de usar respostas de ferramentas de IA sem validação médica. A OpenAI, responsável pelo ChatGPT, ainda não se pronunciou sobre o episódio. Para mais informações, acesse Visor Notícias.

Quer receber as notícias em tempo real?

Clique aqui para entrar no nosso grupo do WhatsApp e fique sempre bem informado.

⚠ ATENÇÃO: Caso não esteja conseguindo clicar no link das notícias, basta adicionar um administrador do grupo em sua lista de contatos.



Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *