
Pesquisadores do Google publicaram um estudo que mostra como usuários de ferramentas de inteligência artificial, como ChatGPT, Gemini, Claude e DeepSeek, podem obter respostas muito mais precisas com uma técnica surpreendentemente simples: repetir o prompt digitado duas ou três vezes seguidas.
O artigo, divulgado inicialmente em dezembro de 2024, demonstra que essa estratégia melhora o desempenho de modelos de linguagem que não utilizam técnicas avançadas de raciocínio — justamente os que equipam as versões gratuitas da maioria dos chatbots disponíveis hoje.
Leia mais:
Por que a repetição funciona?
A explicação técnica por trás da descoberta tem a ver com a forma como esses modelos processam as palavras. Em IAs sem raciocínio avançado, cada token — nome dado aos fragmentos de palavra que o modelo processa — só consegue “prestar atenção” aos tokens que vieram antes dele. Isso significa que, ao digitar uma frase, a primeira palavra não tem acesso ao contexto completo da última enquanto o modelo a processa.
Google Gemini agora pode criar músicas baseadas em imagens, textos ou vídeos
Quando o mesmo comando aparece duas vezes, a segunda instância consegue “olhar” para todas as palavras do primeiro bloco antes de formular uma resposta. Esse efeito de atenção total torna o resultado final mais coerente e preciso — e é exatamente o que os pesquisadores Yaniv Leviathan, Matan Kalman e Yossi Matias descrevem no artigo:
“A ordem dos tokens na consulta de um usuário pode afetar o desempenho da previsão. Propomos repetir o prompt, transformando a entrada de uma consulta simples para uma consulta duplicada. Isso permite que cada token do prompt atenda a todos os outros tokens.”
Os modelos testados e os resultados
Para validar a técnica, os cientistas realizaram sete testes com sete modelos comerciais de IA. Confira quais foram avaliados:
| Modelo | Empresa |
|---|---|
| Gemini 2.0 Flash | |
| Gemini 2.0 Flash Lite | |
| GPT-4o-mini | OpenAI |
| GPT-4o | OpenAI |
| Claude 3 Haiku | Anthropic |
| Claude 3.7 Sonnet | Anthropic |
| DeepSeek V3 | DeepSeek |
Das 70 combinações possíveis entre modelos e tarefas, 47 apresentaram melhora de desempenho. Em nenhum caso houve piora. O resultado mais expressivo foi no teste chamado NameIndex, em que o Gemini 2.0 Flash Lite saltou de apenas 21,33% de respostas corretas para impressionantes 97,33% — um salto que demonstra o potencial real da técnica.
Os pesquisadores também observaram ganhos ao usar três repetições ou ao inserir frases de ligação entre elas, como “vou repetir isso”, o que sugere que variações da estratégia podem ser ainda mais eficazes dependendo do contexto.
Um dos pontos mais relevantes do estudo é que a técnica não gera nenhum ônus adicional para o usuário ou para as empresas. O documento é direto ao afirmar que “a repetição imediata e suas variantes não aumentam o comprimento das saídas geradas ou as latências medidas”. Na prática, isso significa:
- As respostas não ficam mais longas do que o normal
- O tempo de espera permanece o mesmo de prompts sem repetição
- Não há consumo extra de poder computacional
Google anuncia Gemini 3.1 Pro para resolução de problemas complexos
Isso contrasta diretamente com os modelos de raciocínio avançado, como o o3 da OpenAI ou o Gemini 2.0 Flash Thinking, que tendem a demorar mais, processar mais informações e gerar respostas mais extensas — o que costuma se traduzir em custos mais altos para usuários e empresas.
Com base nos resultados, os pesquisadores fazem recomendações diretas ao setor. Entre as principais estão:
- Realizar o ajuste fino (fine-tuning) de modelos utilizando prompts repetidos
- Treinar modelos de raciocínio com essa abordagem para aumentar a eficiência geral
- Investigar o uso de mais de duas repetições, já que os testes com a versão “Repetição x3” mostraram resultados superiores em tarefas específicas
Para o usuário comum, a aplicação prática é direta: na próxima vez que fizer uma pergunta ao ChatGPT ou ao Gemini e quiser uma resposta mais precisa, basta repetir o comando logo em seguida. Sem configurações extras, sem custos adicionais e sem espera prolongada — apenas um pequeno ajuste no jeito de digitar que pode fazer uma grande diferença no resultado.
Fonte: O Globo

Participe do grupo de ofertas do Mundo Conectado
Confira as principais ofertas de Smartphones, TVs e outros eletrônicos que encontramos pela internet. Ao participar do nosso grupo, você recebe promoções diariamente e tem acesso antecipado a cupons de desconto.
Uma pesquisa recente trouxe à tona a importância da repetição de prompts para melhorar a eficiência de Inteligências Artificiais, como o ChatGPT e o Gemini. O estudo mostrou que a repetição de prompts pode aumentar a capacidade dessas IAs de compreender e responder de forma mais precisa às demandas dos usuários. Essa descoberta pode ser extremamente útil para otimizar o serviço prestado à sociedade, garantindo resultados mais eficazes e satisfatórios. Vale a pena refletir sobre como utilizar essa estratégia para obter o melhor proveito dessas tecnologias, proporcionando uma experiência mais inteligente e personalizada para os usuários. Afinal, a busca pela excelência no atendimento é essencial para o aprimoramento contínuo dos serviços públicos.

