Psicoterapeutas com muitos anos de experiência desenvolvem um conhecimento tácito —um “sexto sentido clínico” difícil de ser transmitido por regras explícitas. Esse saber não se encontra nos livros.
Paralelamente, há o conhecimento objetivo e formal, sistematizado em manuais, resoluções, obras especializadas, artigos científicos, cursos e até podcasts. Esse vasto acervo registrado constitui o arquivo do saber humano, já amplamente acessado pelas inteligências artificiais (IAs) de diferentes empresas. E convém não se iludir: a IA aprende, armazena e recupera informações de um modo que nenhum ser humano poderia sonhar em reproduzir.
Desde novembro de 2022, quando a OpenAI lançou o ChatGPT para o público geral, uma fração significativa da humanidade passou a utilizar a IA cotidianamente. É impressionante constatar que, em menos de três anos, cerca de 10% da população mundial já recorra a essa ferramenta. O ChatGPT é um modelo avançado de linguagem natural, treinado em larga escala, capaz de processar texto e gerar respostas contextualizadas de modo semelhante ao diálogo humano. Em termos simples, tornou-se o mais improvável e memorável dos assistentes para tarefas cotidianas, especializadas e profissionais —e, para o bem ou para o mal, relativamente acessível.
Profissionais das mais diversas áreas, em todo o mundo, utilizam o ChatGPT e outras IAs para pesquisa científica, produção de conteúdo, desenvolvimento de softwares e até aplicações clínicas. A American Psychological Association (APA), por exemplo, reconhece o potencial da IA como suporte clínico para decisões e avaliações na clínica de saúde mental. Revistas especializadas em saúde e tecnologia destacam o uso de sistemas de apoio à decisão clínica (Clinical Decision Support System) baseados em IA.
A revista Nature, líder em publicações científicas de alto impacto, apresenta estudos indicando que ferramentas como o ChatGPT podem ser um complemento acessível e qualificado à prática psicoterápica. Há, inclusive, modelos capazes de diagnosticar transtornos, como o obsessivo-compulsivo (TOC), com índices de acerto superiores aos de profissionais de saúde mental.
É fundamental lembrar que órgãos internacionais já reconhecem a IA aplicada à saúde como uma área de alto risco, exigindo supervisão humana rigorosa. Um exemplo é o AI Act, aprovado pela União Europeia, que classifica o uso de IA em saúde mental e na clínica como de impacto crítico, sujeito a regras específicas de transparência, rastreabilidade e responsabilidade. Essa norma reforça a necessidade de diretrizes éticas e de segurança e, longe de impedir o avanço da IA, estabelece bases sólidas para seu uso responsável.
O imaginário coletivo, por sua vez, costuma retratar a IA como prenúncio da ruína da humanidade: HAL 9000, Skynet e Ultron são exemplos célebres. Na realidade, porém, os perigos mais urgentes estão em outra parte. Talvez seja mais justo resgatar figuras como Data, J.A.R.V.I.S. ou C-3PO para ilustrar as inúmeras aplicações positivas e benéficas dessas ferramentas contemporâneas.
Com passos cautelosos e sob rigor ético, acumulam-se evidências de que a IA pode contribuir de maneira significativa para a psicoterapia e para os serviços em saúde mental.
Não como substituta, mas como incremento valioso ao que o profissional humano já realiza com competência e sensibilidade. A chave está em enxergar a tecnologia não como ameaça, mas como ferramenta complementar que pode enriquecer a clínica contemporânea. A IA, usada com critério e supervisão, pode ampliar o alcance e a qualidade dos cuidados em saúde mental, uma área onde a demanda é crescente e os recursos humanos especializados nem sempre estão disponíveis. Toda ajuda é bem-vinda.
TENDÊNCIAS / DEBATES
Os artigos publicados com assinatura não traduzem a opinião do jornal. Sua publicação obedece ao propósito de estimular o debate dos problemas brasileiros e mundiais e de refletir as diversas tendências do pensamento contemporâneo.

