O ChatGPT se espalhou pelo mundo como uma espécie de canivete suíço digital. Hoje ele é usado para tudo, desde substituir buscas rápidas até ajudar a planejar eventos. Mesmo quem torce o nariz para a utilidade da ferramenta acaba admitindo que ela resolve muita coisa. Mas essa facilidade criou um problema sério: muita gente passou a tratar o chatbot como se fosse um oráculo infalível, quando na verdade ele continua sendo um modelo de linguagem que erra, alucina e se confunde com mais frequência do que parece. E isso pode gerar situações bem perigosas, dependendo do tipo de pergunta feita.Para deixar bem claro até onde é seguro ir, reunimos as categorias de perguntas que você deveria evitar a qualquer custo. São 14 situações que exigem gente de verdade, e não uma IA treinada com os cantos mais estranhos da internet.
Informações pessoais

A conversa com o ChatGPT não é totalmente privada, e os próprios termos da OpenAI admitem coleta e armazenamento de prompts. Em tempos em que vazamentos de dados acontecem o tempo todo, entregar nome, endereço, documentos ou qualquer dado sensível ao chatbot é abrir a porta para riscos desnecessários. E para piorar, modelos podem retornar partes do que recebem em outras conversas.
Qualquer pedido ilegal

Mesmo que o sistema tente bloquear esse tipo de conteúdo, usuários já provaram que dá para burlar regras de forma criativa. Mas nada disso apaga o fato de que tudo o que você escreve pode ser monitorado e usado judicialmente. Além disso, a IA pode inventar instruções perigosas e isso pode causar dano real.
Análises de textos confidenciais ou protegidos

Empresas e profissionais já tiveram dores de cabeça ao inserir códigos proprietários, dados internos ou documentos sigilosos na ferramenta. Uma vez dentro do chatbot, você perde controle sobre onde essas informações podem aparecer.
Solicitar orientação médica

O ChatGPT é capaz de explicar conceitos gerais, mas falha miseravelmente ao interpretar sintomas e oferecer recomendações precisas. A IA inventa, mistura dados e pode dar conselhos perigosos como se fossem verdades absolutas. Diagnóstico e tratamento continuam sendo assunto exclusivo para médicos.
Conselhos de relacionamento

O chatbot tende a concordar com tudo, não capta nuances emocionais e pode reforçar comportamentos prejudiciais. Ele não detecta sinais de abuso, não confronta ideias equivocadas e ainda é influenciado pelos vieses do próprio treinamento. Em resumo, não é um terapeuta e nem funciona como um.
Gerar senhas

Mesmo que consiga criar combinações aleatórias, a IA pode repetir senhas entre usuários, ignorar padrões de segurança ou armazenar o que foi gerado. Geradores de senha reais continuam sendo a melhor opção.
Usar como substituto de terapia

Em vez de oferecer visão profissional e objetiva, o ChatGPT muitas vezes valida pensamentos nocivos e reforça interpretações distorcidas da realidade. Há até casos sendo discutidos judicialmente envolvendo consequências graves desse tipo de uso.
Pedir ajuda para consertos

O chatbot até acerta no geral, mas tropeça em detalhes que fazem toda a diferença. Um erro em instruções mecânicas ou elétricas pode piorar o dano, ou gerar um prejuízo enorme. Profissionais existem justamente por isso.
Orientação financeira

A IA mistura dados incompletos, inventa informações e não entende o contexto específico de cada país, lei ou situação fiscal. Perguntar sobre investimentos, impostos ou grandes decisões econômicas é pedir para ter dor de cabeça.
Ajuda com lição de casa

O uso constante da IA para resolver tarefas já mostra impacto negativo no desempenho cognitivo. A dependência cresce, a capacidade crítica diminui, e o aluno acaba entrando na vida adulta sem autonomia intelectual.
Redigir documentos legais

Casos de petições com referências inventadas mostram o quanto o chatbot é limitado nesse campo. Direito exige precisão, conhecimento técnico e experiência, três coisas que a IA não domina.
Fazer previsões sobre o futuro

Se o ChatGPT já escorrega tentando relatar eventos atuais, imaginar o futuro com precisão é impossível. Qualquer previsão nesse sentido deve ser vista como curiosidade, nunca como base para decisões reais.
Pedir conselhos em emergências

Situações críticas exigem respostas rápidas e precisas, exatamente o oposto do que um modelo sujeito a erros e alucinações pode oferecer. A recomendação, sempre, é contatar serviços de emergência.
Discussão política

O chatbot absorve vieses de seu treinamento e, dependendo do momento, tende a pender para um lado do espectro político. Em vez de esclarecer, ele pode reforçar crenças, distorcer fatos ou repetir discursos problemáticos.

