Pular para o conteúdo

ChatGPT disse-me que estou bem, doutor

Banner Aleatório

inteligencia artificial brweek e1629970888531inteligencia artificial brweek e1629970888531
Fonte da imagem: https://www.cetax.com.br

À medida que a inteligência artificial generativa se torna parte integrante do quotidiano, a prática médica assiste a uma transformação silenciosa, mas profunda. Ferramentas como o ChatGPT deixaram de ser meras curiosidades tecnológicas para se tornarem presenças ativas no espaço clínico, influenciando perceções, decisões e até vínculos terapêuticos.

Banner Aleatório

Por Abel García Abejas, médico *

Mais do que uma revolução tecnológica, vivemos uma mutação ética e relacional. Entre os muitos casos que ilustram essa mudança, recordo um episódio paradigmático.

Um doente de meia-idade, após semanas de aerocolia e mal-estar abdominal, recorreu a consulta de gastrenterologia, realizou exames laboratoriais e imagiológicos, todos dentro da normalidade. Persistindo os sintomas, procurou-me como médico de família, último recurso e porto de escuta.

Após longa conversa, o doente referiu com serenidade: “Dr., eu já vi tudo no ChatGPT e ele acha que está tudo ok com o que fiz. Não parece ser dos intestinos. Será melhor fazer outro exame à coluna? O ChatGPT reforçou os resultados da minha analítica e deixou-me mais tranquilo.”

A frase ressoou como um novo sintoma, não do corpo, mas da época, uma presença invisível, o algoritmo, mediava agora a relação entre o sofrimento e a sua interpretação. A consulta já não era binária, médico e doente estavam acompanhados por uma terceira entidade: a inteligência artificial. Esta nova triangulação exige repensar os fundamentos da ética médica e da confiança terapêutica.

Da relação binária à triangulação algorítmica

Durante séculos, a relação médico-doente oscilou entre a autoridade paternalista e o modelo da decisão partilhada, em ambos, o vínculo era direto e humano. A irrupção da inteligência artificial gera, contudo, uma terceira instância de influência, não relacional, mas funcional, não humana, mas linguística.

Neste novo triângulo, médico, doente e IA, o médico vê a sua autoridade interpretativa partilhada com um sistema que não sente, mas sugere; que não examina, mas responde. A questão que se impõe é: como manter a escuta, a confiança e o juízo clínico num cenário em que o doente chega com diagnósticos e hipóteses previamente filtradas pelo algoritmo?

O caso clínico como metáfora do tempo

O doente em questão não procurou a IA por desconfiança, mas por desejo de compreender, encontrou respostas estruturadas, plausíveis e tranquilizadoras. Sugerida a hipótese de origem lombar para a dor, sentiu-se mais sereno, e trouxe essa convicção para a consulta. O médico foi confrontado com uma narrativa já construída, onde o papel clínico se deslocava de intérprete para simplesmente validar.

Este episódio exemplifica o novo paradigma, o médico é agora árbitro entre narrativas, uma narrativa técnica algorítmica, e outra narrativa pessoal e sensorial, cabe-lhe reintroduzir o corpo, a história de vida e a escuta empática num território cada vez mais colonizado pela linguagem da probabilidade.

A autoridade do algoritmo e a erosão da escuta

O ChatGPT e modelos similares não fornecem conhecimento médico no sentido clássico. Produzem linguagem plausível, com aparência de segurança e cientificidade. Esta estética da certeza, combinada com a ausência de contradição emocional, confere à IA uma autoridade nova: o oráculo tecno linguístico.

O filósofo Byung-Chul Han, fala de uma “sociedade da transparência” onde tudo é visível, mas nada é relacional. O algoritmo encaixa nesta lógica, acessível, aparentemente neutro, mas desprovido de contexto, ambiguidade e corporeidade, o que ele diz pode ser útil, mas também enganador, por ser desprovido de responsabilidade.

Surge aqui o fenómeno que designo por tecno-fideísmo: uma fé pós-moderna na IA como entidade superior, livre de preconceitos e emocionalmente estável. Esta crença ignora os enviesamentos dos dados, os limites do treino e a ausência de sensibilidade humana. A IA não cuida, apenas simula o cuidado.

Continuar para ler artigo completo no site Healtnews.

Siga o canal NotíciasdeAveiro.pt no WhatsApp.

Publicidade e donativos

Está a ler um artigo sem acesso pago. Pode ajudar o jornal online NotíciasdeAveiro.pt. Siga o link para fazer um donativo. Pode, também, usar transferência bancária, bem como ativar rapidamente campanhas promocionais (mais informações aqui).



Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *