Pular para o conteúdo

Este homem usou tão mal o ChatGPT que adquiriu um problema grave do século 19

Banner Aleatório

A Inteligência Artificial pode ser uma ferramenta poderosa, mas também perigosa quando mal utilizada. Um caso recente publicado nos Anais de Medicina Interna mostrou como uma consulta equivocada ao ChatGPT resultou em um grave problema de saúde em um homem de 60 anos, internado após intoxicação por brometo de sódio — substância popular no século 19 como sedativo, mas hoje proibida para consumo humano.

Banner Aleatório

Uma dieta perigosa

Pouco depois de adotar a substituição, o homem apresentou alucinações e precisou de internação. Exames apontaram um nível de brometo no sangue de 1.700 mg/L — muito acima da faixa segura de 0,9 a 7,3 mg/L.

A equipe médica também identificou deficiências nutricionais decorrentes de uma dieta vegetariana extremamente restritiva.

Pesquisadores da Universidade de Washington alertam que modelos como o ChatGPT não substituem aconselhamento médico, já que não investigam o contexto do usuário nem oferecem avisos críticos que poderiam evitar desfechos graves.


Inscreva-se no canal do IGN Brasil no Youtube e visite as nossas páginas no Facebook, Twitter, Instagram e Twitch! | Siga Vika Rosa no Instagram



Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *