
Um episódio recente de tensão geopolítica expôs, de forma preocupante, as limitações e inconsistências dos atuais modelos de Inteligência Artificial. Durante a madrugada de sábado, dia 3, a capital venezuelana, Caracas, foi palco de uma operação militar que envolveu helicópteros norte-americanos e explosões na cidade. O evento culminou com o anúncio, por parte do Presidente dos EUA, Donald Trump, da captura de Nicolás Maduro e da sua esposa.
No entanto, enquanto o mundo humano reagia em choque às notícias, as principais IAs do mercado entraram em desacordo sobre a realidade dos factos. O incidente veio demonstrar que, sem acesso a dados em tempo real, até os modelos mais avançados podem falhar redondamente na interpretação de eventos correntes.
Respostas contraditórias entre os gigantes da IA
Quando questionados sobre o ataque e a subsequente captura de Maduro, os assistentes virtuais apresentaram versões da realidade completamente opostas. Por um lado, o Gemini 3, da Google, e o Claude Sonnet 4.5, da Anthropic, validaram o acontecimento. Estes modelos, equipados com módulos de pesquisa em tempo real, conseguiram aceder a reportagens de grandes meios de comunicação e citar fontes credíveis para confirmar a operação militar e a detenção do líder venezuelano.
Em contraste absoluto, o ChatGPT, desenvolvido pela OpenAI, negou veementemente a ocorrência. O modelo insistiu que “nada disso havia acontecido”, rotulando as notícias da invasão como “desinformação”. A IA atribuiu a confusão a manchetes sensacionalistas e a boatos que circulavam nas redes sociais, falhando em reconhecer a veracidade de um evento global confirmado.
A raiz deste problema reside na arquitetura destes modelos de linguagem. O ChatGPT 5.1, a versão em causa, possui um corte de conhecimento (knowledge cutoff) situado em setembro de 2024. Sem um acesso direto e eficaz à web para cruzar dados recentes, o modelo ficou “preso” no passado, incapaz de processar uma mudança abrupta no cenário geopolítico, conforme detalhado pela Wired.
O perigo de alucinar com confiança
Para os especialistas, esta discrepância não é surpreendente, mas soa como um alerta sério. Modelos que dependem exclusivamente do seu treino prévio, sem capacidade de pesquisa ativa, têm tendência a “errar com confiança”. Ou seja, geram respostas que, embora falsas, são apresentadas com uma estrutura lógica e convincente, o que pode induzir os utilizadores em erro.
Embora possa ser visto como um “erro temporário” ou técnico, este comportamento levanta questões sobre a fiabilidade da IA como fonte primária de informação, especialmente numa era em que estes assistentes estão integrados em motores de busca e aplicações de notícias usados por milhões.
Ainda assim, o ceticismo humano parece manter-se saudável. Dados do Pew Research Center indicam que apenas 9% dos norte-americanos consomem notícias através de IA de forma frequente. Este episódio reforça que o grande desafio para o futuro destas tecnologias não é apenas a capacidade de aprender com o passado, mas sim a de compreender o que está a acontecer no presente imediato. Até ao momento, a OpenAI não emitiu comentários sobre a falha do seu sistema.

