Nos últimos anos, nos acostumamos com uma ideia bastante difundida no mundo da IA: modelos mais rápidos geralmente são menos inteligentes do que aqueles que levam mais tempo para responder. Essas variantes “leves” funcionam muito bem em termos de custo e latência para muitas aplicações, mas quando o raciocínio é decisivo, o usual tem sido aprimorar o modelo.
No entanto, na corrida para liderar o desenvolvimento da inteligência artificial, algo incomum acaba de acontecer. O Gemini 3 Flash, novo modelo do Google, superou o GPT-5.2 Extra High, a variante mais capaz de raciocínio da OpenAI, em diversos testes de desempenho. Isso nos força a repensar algumas regras que considerávamos certas.
Modelo rápido que também raciocina
O novo modelo do Google vem com uma promessa muito específica: demonstrar que “velocidade e escalabilidade não precisam vir à custa da inteligência”. Embora tenha sido projetado com foco na eficiência, tanto em termos de custo quanto de velocidade, o Google insiste que o Gemini 3 Flash também se destaca em tarefas de raciocínio.
Segundo a empresa, o modelo pode aprimorar sua capacidade de raciocínio. Ele consegue “pensar” por mais tempo quando o caso de uso exige, mas também utiliza, em média, 30% menos tokens do que o Gemini 2.5 Pro, considerando tráfego típico, para concluir uma ampla variedade de tarefas com alta precisão e sem comprometer o tempo de resposta.
A verdade está nos benchmarks
Benchmarks ainda são uma das ferramentas mais úteis que temos para …
Matérias relacionadas
Na vila oficial do Papai Noel na Finlândia, só havia renas e neve; agora, há tanques de guerra
Trump está confiscando todas as importações desses pneus fabricados na Europa

