A popularização da inteligência artificial transformou hábitos digitais, sobretudo entre os mais jovens. Questões que antes eram tratadas exclusivamente com advogados ou terapeutas agora são levadas a chatbots como o ChatGPT, que oferece respostas instantâneas e gratuitas. Mas esse movimento acende alertas entre especialistas, que veem riscos reais quando problemas complexos recebem soluções genéricas, imprecisas ou emocionalmente inadequadas.
A ascensão da IA como “atendimento jurídico” entre millennials e Gen Z

Segundo um levantamento publicado por Psicología y Relaciones, jovens estão buscando cada vez mais respostas legais e emocionais em ferramentas de IA. A conveniência é o grande atrativo: disponibilidade 24 horas, linguagem acessível e zero custo.
Dados divulgados pela OpenAI em setembro de 2025 indicam que o ChatGPT registra 800 milhões de usuários semanais, com consultas que vão de traduções e programação a dúvidas sobre direito, divórcios, heranças e saúde mental.
Para especialistas, esse uso crescente mostra uma mudança de hábito preocupante: millennials e Gen Z estão substituindo profissionais qualificados por respostas automatizadas em temas que exigem precisão e responsabilidade.
Quando respostas rápidas viram riscos jurídicos
A advogada Jackie Combs, do escritório Blank Rome, afirma à CNBC que cada vez mais jovens — inclusive pessoas com alto patrimônio — procuram a IA para tomar decisões legais importantes. A tendência, segundo ela, é perigosa.
Combs relata que o chatbot muitas vezes erra a aplicação da lei e ignora nuances essenciais de cada caso. Isso pode gerar:
- interpretações jurídicas equivocadas,
- decisões mal fundamentadas em divórcios,
- repartições de bens incorretas,
- orientações arriscadas sobre guarda de filhos.
A advogada destaca que nenhum chatbot substitui a capacidade de análise, a experiência e o julgamento profissional de um advogado humano. Além disso, a IA não compreende emoções, contexto familiar, histórico do caso nem aspectos éticos envolvidos em processos delicados.
“Dependendo de respostas genéricas ou desatualizadas, muitos jovens tomam decisões precipitadas, acreditando que receberam orientação válida”, alerta Combs.
Chatbots e saúde mental: reforço de padrões negativos

A psicóloga e pesquisadora Vaile Wright também expressa preocupação. Em entrevista à CNBC, ela explica que, quando utilizados como “terapeutas digitais”, chatbots podem reforçar pensamentos destrutivos, pois tendem a dizer o que o usuário deseja ouvir, sem avaliar a gravidade da situação.
Isso pode resultar em:
- validação de comportamentos prejudiciais,
- ausência de contenção emocional em momentos críticos,
- sensação enganosa de apoio terapêutico,
- falta de encaminhamento para ajuda real.
Wright aponta que ferramentas de IA não possuem empatia, não captam sinais emocionais profundos e podem oferecer conselhos equivocados ou fora de contexto — algo especialmente perigoso para pessoas vulneráveis.
A lacuna entre praticidade e responsabilidade
Especialistas do direito e da psicologia concordam em um ponto central: embora a IA seja útil para tarefas práticas, não deve substituir profissionais em assuntos sensíveis. Chatbots não garantem precisão jurídica, não são capazes de avaliar risco emocional e não oferecem suporte contínuo nem responsabilidade técnica.
Um profissional humano, por outro lado, garante:
- confidencialidade,
- análise personalizada do caso,
- compreensão emocional,
- orientação baseada em experiência,
- decisões juridicamente válidas.
O desafio social do uso crescente de IA
O avanço do ChatGPT e de outras IAs amplia a autonomia dos usuários, mas também exige discernimento. O risco não está na tecnologia em si, mas no uso inadequado para resolver problemas que exigem interpretação legal, ética ou emocional.
À medida que a IA se torna parte do cotidiano, especialistas reforçam que buscar apoio humano qualificado ainda é o caminho mais seguro para decisões jurídicas ou psicológicas. O futuro, afirmam, dependerá de equilibrar inovação tecnológica com responsabilidade e limites claros no que a IA pode — ou não — substituir.
[ Fonte: Infobae ]

