
Nos últimos anos, a inteligência artificial (IA) fez um progresso impressionante na análise de dados de imagem e texto, especialmente por meio de modelos de linguagem de visão (VLMs) que vinculam imagens e texto.
Esses modelos têm aplicações promissoras na área médica, ajudando a analisar imagens médicas, como raios-X ou ressonâncias magnéticas, e combinando-as com descrições de texto correspondentes para auxiliar a equipe médica a fazer diagnósticos.
No entanto, uma fraqueza significativa dos sistemas de IA atuais, que muitas vezes é ignorada, é sua incapacidade de detectar negações corretamente.
A importância da negação no diagnóstico médico
Na medicina, a distinção precisa entre a presença e a ausência de sintomas ou sinais de doença é crucial.
A capacidade de identificar corretamente “não” ou “nenhum sinal de” é essencial na análise de imagens médicas.
Um sistema de IA que interpreta erroneamente uma imagem como “sinais de doença” quando na verdade ela não mostra “nenhum sinal de doença” pode causar diagnósticos incorretos graves.
Tais erros podem fazer com que os pacientes recebam tratamentos desnecessários ou, pior, que uma condição real seja ignorada.
Taxa de erro na detecção de negação
Os modelos atuais de visão e linguagem que combinam imagens e texto têm dificuldades consideráveis em interpretar corretamente as negações.
Em testes onde os modelos tiveram que pesquisar imagens com base na presença ou ausência de certos objetos, eles mostraram alta precisão na hora de identificar objetos. Mas quando eles foram solicitados a procurar imagens que não continham um objeto específico, a precisão caiu significativamente.
Isso ocorre porque esses modelos geralmente são focados na confirmação e na afirmação positiva. Isso significa que eles tendem a confirmar a presença de algo em vez de detectar sua ausência — um problema que pode levar a erros graves, especialmente na análise de imagens médicas.
A dimensão ética e a necessidade de modelos precisos de IA
Na aplicação médica das tecnologias de IA, é particularmente importante entender o significado das negações e implementá-las corretamente.
Na prática clínica, as negações podem fazer a diferença entre um diagnóstico correto e um incorreto.
Um modelo incapaz de detectar que “não há sinais de pneumonia” pode dar um resultado falsamente positivo, levando a tratamentos desnecessários ou até mesmo a decisões médicas incorretas.
Soluções e melhorias
Já existem abordagens iniciais para resolver os problemas com a detecção de negação. Uma solução possível seria treinar especificamente modelos de IA com conjuntos de dados que contenham negações.
Dessa forma, os modelos poderiam aprender a reconhecer e processar corretamente o significado de “não” ou “não” em um contexto médico. No entanto, este ainda é um primeiro passo.

É importante que desenvolvimentos futuros não apenas melhorem a capacidade da IA de detectar negação, mas também sua capacidade de entender o contexto de uma situação e responder corretamente.
E agora?
A incapacidade dos modelos de IA de interpretar corretamente as negações representa um obstáculo significativo ao uso generalizado dessas tecnologias na medicina. Apesar do progresso feito na melhoria das capacidades de detecção de negativos, ainda há muito trabalho a ser feito.
Somente dessa forma a inteligência artificial poderá ser utilizada como ferramenta segura e eficiente no diagnóstico e tratamento médico.
Referência da notícia
Vision-Language Models Do Not Understand Negation. 16 de janeiro, 2025. Alhamoud, et al.