O lançamento do ChatGPT Health é só o começo. E o ponto fundamental aqui não é, nem nunca foi, ter IA integrada a serviços. Isso é inevitável. Já sabemos que vai acontecer. A questão mais inquietante é outra: onde essa integração está se concentrando.
Quando a maior referência de IA do mundo (que já controla infraestrutura, dados, modelos e interfaces) passa a integrar camadas sensíveis como saúde, educação, trabalho e decisão, não estamos apenas falando de inovação. Estamos falando de arquitetura de decisões na vida das pessoas.
Projetos como o primeiro hospital inteligente do #SUS em São Paulo, que vai integrar medicina de alta precisão apoiada por inteligência artificial, mostram o quanto a IA está migrando de assistente complementar para infraestrutura de serviços essenciais. Isso traz ganhos reais, mas também problemas concretos: pode redefinir profissões, deslocar responsabilidades, criar dependência tecnológica, concentrar dados sensíveis e reproduzir vieses que afetam acesso e qualidade do cuidado.
Estamos assistindo, talvez em tempo real, ao surgimento de um novo tipo de #monopólio — não apenas econômico, mas cognitivo e institucional. Um modelo que pode, silenciosamente, sucatear profissões, redefinir quem decide, quem executa e quem assume riscos.
A pergunta deixa de ser “isso é útil?” e passa a ser: qual será o próximo lançamento? E mais incômodo ainda: será que o próprio uso massivo que fazemos da IA não está fornecendo a ela os meios para consolidar essa cadeia de influência e dependência?
Não se trata de negar avanços reais. Trata-se de questionar cedo, antes que isso se torne normal, quais limites éticos, institucionais — especialmente em relação aos algoritmos — e sociais precisamos estabelecer para uma tecnologia que passa a operar como infraestrutura inevitável.

