Obter boas respostas no ChatGPT depende menos da inteligência artificial (IA) e mais de como a pergunta é feita. Com o avanço das IAs generativas, dominar a escrita de prompts (comandos de texto usados para orientar o chatbot) se tornou essencial para quem usa a ferramenta.
De acordo com o veículo americano ZDNET, um prompt bem estruturado serve como um mapa: indica o tom, o público, o objetivo e o formato que se espera da resposta, por isso, há algumas dicas para garantir que o comando é bom o suficiente para a IA realizar a tarefa que foi pedida.

O prompt é o que orienta o que o chabot de IA deve fazer, então saber construir um é o segredo Foto: Alice Labate/Estadão
A seguir, estão 10 estratégias para melhorar a escrita de prompts e garantir que o ChatGPT ou qualquer outro modelo semelhante, ofereça respostas mais coerentes e detalhadas.
1. Escrever como se estivesse conversando com alguém
Tratar o ChatGPT como uma pessoa facilita a construção de prompts mais naturais e claros.
A linguagem muito técnica ou fragmentada pode confundir o modelo, enquanto perguntas estruturadas em formato de conversa tendem a gerar respostas mais compreensíveis.
Ou seja, em vez de escrever, por exemplo, “explicar fotossíntese”, uma formulação melhor seria: “Você pode me explicar como funciona a fotossíntese de forma simples, como se eu fosse um aluno do ensino médio?”. O tom humano cria contexto e orienta o nível de complexidade da resposta.
Essa abordagem também estimula o ChatGPT a seguir uma linha de raciocínio mais próxima de uma explicação real. Além disso, quando houver dúvidas, vale reformular a pergunta, pedir exemplos ou pedir que ele repita o raciocínio de outro modo.
2. Fornecer contexto
O ChatGPT responde melhor quando entende o cenário completo (e não com perguntas abertas), e isso inclui informações como o objetivo da resposta, o público-alvo e o formato desejado.
Por exemplo, “explique o que é inflação” é vago. Já “explique o que é inflação em uma linguagem simples, voltada a jovens que estão aprendendo economia pela primeira vez” dá contexto e clareza. O modelo sabe a quem deve se dirigir e em que tom responder.
Também é útil incluir o motivo da pergunta. Dizer que o texto será usado em uma apresentação, para ensinar alguém ou em um trabalho acadêmico muda a estrutura da resposta, já que o ChatGPT consegue adaptar o conteúdo conforme a finalidade indicada.
Incluir detalhes sobre tempo, local ou exemplos específicos deixa o resultado mais preciso. Se o tema for “impacto da IA no Brasil”, o modelo pode restringir a resposta a dados e contextos nacionais.
3. Dar personalidade ao ChatGPT
Assumir uma persona ajuda o ChatGPT a entender melhor o tipo de resposta esperado. Quando se pede que ele atue “como um professor de história”, “como um analista financeiro” ou “como um astronauta”, o modelo adapta vocabulário, estrutura e profundidade da explicação.
Por exemplo, o comando “escreva um resumo sobre energia solar como se fosse um engenheiro explicando para investidores” gera uma resposta mais técnica, mas, o mesmo pedido, com a persona de “professor de ciências para crianças”, resultaria em um texto mais didático.
Essa técnica é importante para alinhar o tom de voz e evitar respostas genéricas. Também pode ser combinada com o público-alvo, por exemplo “como um nutricionista, explique a importância da proteína em uma dieta para idosos”.
4. Indicar para quem a resposta deve ser direcionada
Enquanto a dica anterior trata de quem está “falando”, esta trata de quem vai “ouvir”.
Especificar o público é fundamental para ajustar o vocabulário, a extensão e a complexidade do texto. Por exemplo, um prompt pode dizer: “explique o funcionamento das vacinas para estudantes de medicina” ou “para pais que tem dúvidas sobre vacinar seus filhos” e, embora o tema seja o mesmo, o segundo pedido vai exigir uma linguagem mais acessível e empática.
O ChatGPT tende a adaptar o conteúdo conforme o perfil indicado, inclusive ajustando o tom, então, uma resposta voltada a executivos, por exemplo, pode soar mais direta e objetiva; uma voltada a adolescentes pode incluir exemplos do cotidiano.
5. Manter a IA no foco da conversa
O ChatGPT pode se perder do assunto, principalmnete em conversas longas. Para evitar isso, o ideal é inserir lembretes ou instruções de foco no próprio prompt.
Frases como “mantenha o foco apenas neste tema” ou “não inclua informações fora do contexto brasileiro” ajudam a manter a linha da resposta. Outra técnica é pedir justificativas, por exemplo: “explique por que essa é a melhor solução” ou “que evidências sustentam essa afirmação”.
Quando a IA se perde, é possível retomar com um breve resumo: “até agora falamos sobre X; agora quero entender Y”. Isso serve como uma âncora para a conversa, lembrando o modelo de onde parou. Essa prática é útil, principalmente em projetos de escrita mais longos, como relatórios ou roteiros, em que a coerência entre as respostas é essencial.
6. Pedir para o ChatGPT reler o prompt
Pedir que a IA releia o comando faz com que ela reavalie o que entendeu, então, um prompt como “releia as instruções acima e verifique se compreendeu corretamente antes de responder” costuma melhorar a precisão da resposta.
Um exemplo, se o modelo interpretar mal uma solicitação, vale pedir: “releia meu pedido e explique o que você entendeu antes de responder”. Isso força a IA a revisar seu próprio raciocínio e a detectar possíveis erros de compreensão.
Essa técnica funciona quando o ChatGPT dá respostas sem sentido ou superficiais, é uma forma prática de “reiniciar” o raciocínio da IA sem começar uma nova conversa, mantendo o histórico de contexto.
7. Testar diferentes abordagens
Mudar a forma de perguntar pode alterar completamente o conteúdo da resposta.
Por exemplo, em vez de pedir “liste as causas da mudança climática”, tente “explique as causas da mudança climática e como elas afetam o Brasil atualmente”, ou também: “faça um resumo de 200 palavras sobre as causas da mudança climática com foco em agricultura”.
Pequenas variações ajudam a descobrir qual estrutura funciona melhor para cada tipo de tema. É possível testar também o formato da resposta, pedindo que seja em tópicos, em formato de notícia, de e-mail profissional ou de resumo escolar.
A prática faz o usuário compreender como a IA interpreta cada comando. Quanto mais se experimenta, mais fácil fica antecipar o tipo de resposta que o modelo oferecerá.

Os comandos de texto funcionam não apenas no CHatGPT, e quando bem construídos, funcionam em todos os chatbots Foto: Alice Labate/Estadão
8. Desenvolver e refinar prompts anteriores
Em vez de começar do zero, uma boa estratégia é aprimorar perguntas já feitas, em que o usuário parte da resposta anterior e pede ajustes.
Se o ChatGPT gerar um resumo de um artigo, é possível pedir: “agora reescreva esse texto de forma mais concisa” ou “acrescente dados sobre o contexto econômico”. Cada interação refina o resultado e melhora o texto final.
Refinar prompts é, na prática, uma forma de treinar o modelo a entender melhor o estilo e a profundidade que o usuário espera.
9. Mostrar exemplos do que é esperado
Dar exemplos concretos é uma das formas mais eficazes de guiar o ChatGPT. Se a intenção é que ele produza um texto acadêmico, apresentar um modelo de exemplo ajuda a IA a replicar estrutura, tom e vocabulário.
Por exemplo, o prompt pode incluir: “siga este exemplo de formato de trabalho acadêmico, com título, sumário e introdução”, assim, o modelo tende a respeitar o formato demonstrado e a reproduzir padrões semelhantes.
Também é possível usar exemplos negativos, informando o que não deve ser feito. Pedir que “evite linguagem informal” ou “não use muitos adjetivos” dá limites à produção.
10. Abrir uma nova sessão quando necessário
Se a conversa ficar confusa ou o ChatGPT insistir em erros, iniciar uma nova sessão costuma resolver, porque isso limpa o histórico e faz o modelo esquecer o contexto anterior.
Caso após várias tentativas o modelo continuar dando respostas sem sentido sobre um tema, vale abrir uma nova janela e reformular o pedido desde o início, de forma mais clara e objetiva.
Conversas longas podem fazer o ChatGPT “perder o fio da meada”, misturando informações de perguntas anteriores. Ao reiniciar, o modelo volta a interpretar o comando de forma neutra e precisa.

