Pular para o conteúdo

Caos na Venezuela e IAs confusas: ChatGPT nega captura de Maduro enquanto rivais confirmam

Banner Aleatório

Bandeira da Venezuela

Banner Aleatório

Um episódio recente de tensão geopolítica expôs, de forma preocupante, as limitações e inconsistências dos atuais modelos de Inteligência Artificial. Durante a madrugada de sábado, dia 3, a capital venezuelana, Caracas, foi palco de uma operação militar que envolveu helicópteros norte-americanos e explosões na cidade. O evento culminou com o anúncio, por parte do Presidente dos EUA, Donald Trump, da captura de Nicolás Maduro e da sua esposa.

No entanto, enquanto o mundo humano reagia em choque às notícias, as principais IAs do mercado entraram em desacordo sobre a realidade dos factos. O incidente veio demonstrar que, sem acesso a dados em tempo real, até os modelos mais avançados podem falhar redondamente na interpretação de eventos correntes.

Respostas contraditórias entre os gigantes da IA

Quando questionados sobre o ataque e a subsequente captura de Maduro, os assistentes virtuais apresentaram versões da realidade completamente opostas. Por um lado, o Gemini 3, da Google, e o Claude Sonnet 4.5, da Anthropic, validaram o acontecimento. Estes modelos, equipados com módulos de pesquisa em tempo real, conseguiram aceder a reportagens de grandes meios de comunicação e citar fontes credíveis para confirmar a operação militar e a detenção do líder venezuelano.

Em contraste absoluto, o ChatGPT, desenvolvido pela OpenAI, negou veementemente a ocorrência. O modelo insistiu que “nada disso havia acontecido”, rotulando as notícias da invasão como “desinformação”. A IA atribuiu a confusão a manchetes sensacionalistas e a boatos que circulavam nas redes sociais, falhando em reconhecer a veracidade de um evento global confirmado.

A raiz deste problema reside na arquitetura destes modelos de linguagem. O ChatGPT 5.1, a versão em causa, possui um corte de conhecimento (knowledge cutoff) situado em setembro de 2024. Sem um acesso direto e eficaz à web para cruzar dados recentes, o modelo ficou “preso” no passado, incapaz de processar uma mudança abrupta no cenário geopolítico, conforme detalhado pela Wired.

O perigo de alucinar com confiança

Para os especialistas, esta discrepância não é surpreendente, mas soa como um alerta sério. Modelos que dependem exclusivamente do seu treino prévio, sem capacidade de pesquisa ativa, têm tendência a “errar com confiança”. Ou seja, geram respostas que, embora falsas, são apresentadas com uma estrutura lógica e convincente, o que pode induzir os utilizadores em erro.

Embora possa ser visto como um “erro temporário” ou técnico, este comportamento levanta questões sobre a fiabilidade da IA como fonte primária de informação, especialmente numa era em que estes assistentes estão integrados em motores de busca e aplicações de notícias usados por milhões.

Ainda assim, o ceticismo humano parece manter-se saudável. Dados do Pew Research Center indicam que apenas 9% dos norte-americanos consomem notícias através de IA de forma frequente. Este episódio reforça que o grande desafio para o futuro destas tecnologias não é apenas a capacidade de aprender com o passado, mas sim a de compreender o que está a acontecer no presente imediato. Até ao momento, a OpenAI não emitiu comentários sobre a falha do seu sistema.

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *