Pular para o conteúdo

Disease Hoax Deceives ChatGPT, Gemini, and Even Scientific Journals

Banner Aleatório

Banner Aleatório


Como a “bixonimania” expôs não só a fragilidade da IA, mas também a preguiça perigosa de quem já não checa o que publica

  • Foto do(a) author(a) Flavia Azevedo

Publicado em 7 de abril de 2026 às 22:23

ChatGPT
ChatGPT Crédito: Shutterstock

Imagine sentir uma coceira persistente nos olhos e, ao buscar ajuda com um assistente de Inteligência Artificial, receber o diagnóstico de uma condição “intrigante e rara” chamada “bixonimania”. O nome soa oficial, os sintomas parecem bater, mas há um detalhe: essa doença simplesmente não existe. O que começou como um teste para medir a credibilidade dos algoritmos acabou revelando um buraco profundo na forma como a tecnologia e a própria ciência processam informações hoje em dia. Pois a “bixonimania” é uma obra de ficção que conseguiu atravessar as fronteiras do código binário para se infiltrar em artigos acadêmicos revisados por pares. >

A Inteligência Artificial pode ser uma aliada no trabalho (Imagem: SuPatMaN | Shutterstock) por Imagem: SuPatMaN | Shutterstock

O nascimento de uma farsa >

A mente por trás da “epidemia” fictícia é Almira Osmanovic Thunström, pesquisadora da Universidade de Gotemburgo, na Suécia. Em março de 2024, ela decidiu testar se os grandes modelos de linguagem, como o ChatGPT e o Gemini, seriam capazes de engolir uma mentira deslavada se ela estivesse vestida com roupas acadêmicas. Para isso, criou o pesquisador fantasma Lazljiv Izgubljenovic – cujo rosto foi gerado por IA – e publicou estudos falsos descrevendo a “bixonimania” como uma irritação nas pálpebras causada pela luz azul de telas.>

O tom da farsa beirava o surrealismo para quem se desse ao trabalho de ler os créditos. Thunström inseriu pistas óbvias de que tudo era uma brincadeira: o autor supostamente trabalhava na inexistente Universidade Asteria Horizon, na cidade fictícia de Nova City. Mais engraçado ainda, os agradecimentos do artigo citavam a “Academia da Frota Estelar” por emprestar laboratórios a bordo da USS Enterprise e creditavam o financiamento à “Fundação Professor Sideshow Bob”, em homenagem ao vilão de Os Simpsons, por sua “astúcia avançada”. Mesmo com essas bandeiras vermelhas flamejantes, o experimento funcionou bem demais.>

Os robôs começam a receitar>

Apenas algumas semanas após a publicação dos textos falsos em plataformas de pré-impressão, a “bixonimania” já era tratada como realidade pelos principais chatbots do mercado. Em 13 de abril de 2024, o Copilot da Microsoft descrevia a condição como algo real, enquanto o Gemini do Google recomendava seriamente que os usuários procurassem um oftalmologista para tratar a doença inventada. Até mesmo o motor de busca Perplexity chegou a inventar estatísticas, afirmando que uma em cada 90 mil pessoas era afetada pela condição.>

Especialistas ouvidos pela reportagem da Nature explicam que o problema está na forma como a IA interpreta textos com aparência profissional. Quando uma mentira é formatada como um artigo clínico ou uma nota de alta hospitalar, as taxas de “alucinação” dos modelos aumentam drasticamente. Os algoritmos parecem dar mais crédito à forma do que ao conteúdo, ignorando avisos explícitos dentro do texto que diziam, literalmente, “todo este artigo é inventado”. Empresas como OpenAI e Google se defendem dizendo que seus modelos mais novos são mais precisos, mas testes realizados em março de 2026 mostraram que as ferramentas ainda oscilam entre o ceticismo e a validação da farsa.>

O perigo por trás da piada>

O que era para ser uma lição de casa para estudantes de tecnologia tomou um rumo preocupante quando a “bixonimania” infectou humanos. Pesquisadores reais, em um instituto na Índia, citaram a doença fictícia em um artigo legítimo sobre dermatologia publicado na revista Cureus. O erro sugere que cientistas estão usando ferramentas de IA para gerar referências bibliográficas sem sequer ler os artigos que estão citando. Diante do alerta, a revista precisou se retratar publicamente e retirar o artigo do ar no último dia 30 de março.>

Alex Ruani, pesquisadora de desinformação na University College London, alertou que o caso é uma “masterclass” sobre como a desinformação opera. Se os sistemas de filtragem da ciência e da tecnologia falham em barrar uma piada que cita a USS Enterprise e o Sideshow Bob, a confiança na informação digital corre um risco severo. O experimento de Thunström deixa um aviso claro: da próxima vez que uma IA lhe der um diagnóstico médico com nome pomposo, vale conferir se o seu médico não é, na verdade, um personagem de desenho animado escondido em um emaranhado de códigos.>

Por @flaviaazevedoalmeida>

Ao longo dos meus mais de 16 anos como servidor público, venho acompanhando de perto as diversas transformações e avanços tecnológicos que impactam diretamente a maneira como lidamos com informações e dados. Recentemente, tenho observado uma preocupante tendência de propagação de informações falsas, inclusive no meio científico.

É surpreendente como uma doença falsa conseguiu enganar sistemas avançados de inteligência artificial, como o ChatGPT e o Gemini, além de ser publicada em uma renomada revista científica. Isso nos faz refletir sobre a importância de verificarmos com cuidado as fontes de informação e a necessidade de um olhar crítico diante do que nos é apresentado.

Como sociedade, é fundamental que estejamos atentos e sejamos capazes de discernir o que é real do que é falso, especialmente em um contexto em que a disseminação de notícias falsas pode causar danos irreparáveis. É essencial que busquemos sempre a verdade e nos empenhemos em utilizar a tecnologia de forma responsável e ética.

Diante desse cenário, convido a todos a refletir sobre a importância da veracidade das informações e a influência que elas exercem em nossa vida cotidiana. A busca pela verdade e a conscientização sobre as fake news são fundamentais para que possamos tomar decisões informadas e contribuir para uma sociedade mais transparente e justa. Afinal, a informação correta e confiável é a base para a construção de um futuro melhor para todos.

Créditos Para a Fonte Original

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *