Em meio ao Janeiro Branco, mês dedicado à conscientização global sobre saúde mental, a OpenAI anunciou o lançamento do ChatGPT Health, uma nova frente da plataforma voltada à aplicação da inteligência artificial em contextos de saúde, com foco especial no bem-estar emocional. A iniciativa inclui alertas para pausas em interações prolongadas e mecanismos capazes de identificar sinais de sofrimento psicológico — e reacende o debate sobre até onde a tecnologia pode, de fato, atuar no cuidado emocional das pessoas.
O anúncio ocorre em um momento de crescimento acelerado do uso da IA como ferramenta de apoio emocional. Segundo a Harvard Business Review, aplicações ligadas a aconselhamento terapêutico e bem-estar já figuram como a principal motivação para o uso de ferramentas de IA generativa no mundo. No Brasil, o movimento acompanha essa tendência: um em cada dez usuários recorre à tecnologia para apoio psicológico, de acordo com levantamento da Talk Inc.
Avanço tecnológico, cautela clínica
Apesar do potencial de escala e acessibilidade, especialistas reforçam que a evolução precisa caminhar junto com responsabilidade clínica e ética. Para Rui Brandão, vice-presidente de saúde mental da Conexa, maior ecossistema digital de saúde física e mental da América Latina, os dados exigem prudência.
“Já existem evidências de que modelos como o ChatGPT podem falhar na interpretação do sofrimento humano, deixando escapar nuances emocionais ou até oferecendo respostas inadequadas em contextos sensíveis. Um estudo recente publicado no arXiv mostra que, enquanto terapeutas humanos responderam de forma adequada em 93% dos testes, sistemas de IA acertaram, em média, apenas 50% das respostas dentro dos padrões terapêuticos básicos”, afirma.
“A indústria tem avançado e o ChatGPT Health é um reflexo desse esforço, mas é fundamental deixar claro que a IA pode apoiar no acolhimento inicial e no monitoramento de sintomas, jamais substituir a relação terapêutica humana”, completa Brandão.
Leandro Oliveira, diretor da Humand no Brasil, plataforma global voltada à cultura organizacional, também aponta riscos na dependência excessiva da tecnologia.
“Existe um perigo real quando tentamos resolver questões profundamente humanas com ferramentas que não vivenciam emoções, contexto ou vínculo. Bem-estar emocional exige empatia, confiança e conexão genuína”, diz.
Apoio contínuo, limites claros
Os especialistas reconhecem que o ChatGPT Health representa um avanço relevante ao ampliar o acesso ao suporte emocional, especialmente em um cenário de filas de espera, escassez de profissionais e limitações de horário. A disponibilidade 24 horas por dia surge como um ponto de contato inicial importante para pessoas em sofrimento.
“A disponibilidade contínua é um diferencial, principalmente para quem enfrenta crises fora do horário de funcionamento das clínicas tradicionais”, avalia o executivo da Conexa.
Ainda assim, há limites difíceis de transpor. A prática terapêutica vai além do diálogo textual e envolve gestos, sil êncios, pausas e expressões — elementos que permanecem fora do alcance dos modelos de linguagem. “Muitas vezes, o que torna a terapia humana eficaz são justamente suas ‘imperfeições’. O processo de cura é não linear e exige construção de vínculo”, reforça Oliveira.
Dados sensíveis sob vigilância
Outro ponto central do debate é a privacidade. Conversas sobre saúde mental envolvem informações altamente sensíveis, ampliando riscos de vazamentos, uso indevido ou compartilhamento não autorizado, especialmente em ambientes que ainda não operam plenamente sob normas rígidas de proteção de dados.
Para Brandão, o futuro da IA na saúde passa por modelos híbridos e governança sólida. “A tecnologia pode apoiar terapeutas no acompanhamento entre sessões e na psicoeducação, desde que exista transparência e proteção de dados. O objetivo não deve ser tornar profissionais mais parecidos com máquinas, mas usar as máquinas para que eles possam ser ainda mais humanos”, conclui.

