A IA está remodelando a forma como diferentes setores da economia operam, competem e criam valor em uma velocidade sem precedentes. Até 2030, estima-se que a IA adicionará quase US$ 20 trilhões ao PIB global, consolidando seu lugar como uma das forças econômicas mais poderosas do nosso século. No entanto, à medida que a IA se torna cada vez mais incorporada às operações de negócios, uma nova fronteira de risco surge rapidamente, enraizada na compreensão frágil que as máquinas têm do significado e do contexto da linguagem humana.
A IA generativa e os grandes modelos de linguagem (LLMs) estão avançando para o núcleo de fluxos de trabalho críticos em todos os setores. Instituições financeiras os utilizam para analisar mercados e antecipar volatilidade. As indústrias os integram para orquestrar cadeias de suprimentos complexas. Organizações de saúde os aplicam para triar informações e acelerar pesquisas.
Mas, à medida que a dependência de sistemas de IA generativa se acelera, também cresce uma nova classe de ameaças que explora a comunicação, e não o código. Elas atacam aquilo que a IA compreende, e não a forma como ela executa. E estão surgindo mais rápido do que a maioria das organizações está preparada para detectar e defender.
LLMs e o cenário emergente de ameaças
Tradicionalmente, a cibersegurança concentrou-se no fortalecimento da infraestrutura: proteger redes, corrigir vulnerabilidades e aplicar controles de identidade. Mas o cenário atual de ameaças está se deslocando para algo mais sutil e ainda mais difícil de detectar. Os cibercriminosos já não precisam explorar falhas de software ou invadir uma rede para causar danos. Eles podem manipular a forma como os sistemas de IA interpretam a linguagem, transformando a semântica em superfície de ataque.
Instruções maliciosas ocultas podem ficar escondidas à vista de todos, em dados públicos, materiais de treinamento, entradas de clientes ou documentação de código aberto. Essas manipulações podem redirecionar o raciocínio de um modelo, distorcer seus resultados ou comprometer os insights que ele fornece aos tomadores de decisão. Como esses ataques ocorrem em linguagem natural, as ferramentas tradicionais de segurança raramente os identificam. O modelo é envenenado na origem, muito antes de alguém perceber que algo está errado. Para organizações que não dispõem de preparação e proteção adequadas, isso representa um risco sério e, muitas vezes, invisível.
Esta não é uma ameaça hipotética. Conforme mais organizações adotam sistemas de IA autônomos e semiautônomos, o incentivo para que adversários ataquem a camada da linguagem só tende a crescer. O custo de entrada para os atacantes é baixo, e o potencial de dano é enorme.
Leia mais: Por que 90% das transformações digitais falham, segundo CEO do Cesar
A ameaça silenciosa do insider
Quando um modelo de IA é comprometido, ele se comporta como uma ameaça interna. Pode vazar silenciosamente propriedade intelectual, alterar recomendações estratégicas ou gerar resultados que beneficiem um terceiro. O desafio está na sua invisibilidade: o modelo atua sem levantar alertas. O sistema continua respondendo a perguntas, resumindo documentos, processando dados e auxiliando funcionários. Ele simplesmente faz tudo isso de maneira sutilmente desalinhada.
O que estamos vendo agora é uma mudança no risco corporativo, que deixa de se concentrar apenas na proteção de dados e passa a abranger a proteção do conhecimento. A questão central para os líderes de segurança já não é somente quem possui direitos de acesso, mas também o que seus modelos absorveram e de onde esse conhecimento se origina.
A lacuna de governança
Apesar da dimensão da ameaça, muitas organizações permanecem focadas em quem está usando a IA, e não no que seus sistemas de IA estão ingerindo. Essa lacuna se amplia conforme a adoção da IA se acelera e a autonomia aumenta. Construir ecossistemas de IA confiáveis e resilientes exige que as empresas verifiquem a integridade e a autenticidade de cada conjunto de dados, instrução e fonte de conteúdo que alimenta seus modelos.
Isso se alinha de perto a um tema central que emerge para o Fórum Econômico Mundial de 2026 em Davos: concretizar o vasto potencial econômico da IA depende de uma implantação responsável e de confiança verificável. A IA não pode permanecer uma caixa-preta, nem consumir passivamente dados não controlados. Os sistemas que gerarão maior valor econômico e social serão aqueles concebidos com rastreabilidade, transparência e responsabilidade em seu núcleo.
Construindo confiança no centro da IA
Enfrentar esse novo cenário de ameaças começa com um princípio simples, porém transformador: confiança zero. Não confie em nada. Verifique tudo, continuamente.
Embora a confiança zero não seja um conceito novo em segurança, seu escopo precisa ir além dos controles de acesso e incluir os dados e as instruções que treinam e orientam os sistemas de IA. Isso exige monitoramento constante da evolução dos modelos, rastreamento da origem de seus conhecimentos e incorporação de responsabilidade ao longo de todo o ciclo de vida da IA. Alfabetização em IA, proveniência de dados e confiança digital agora precisam estar no mesmo nível de prioridade de temas como ESG e cibersegurança nos conselhos de administração, pois a integridade da inteligência corporativa depende cada vez mais deles.
A conscientização global sobre esses riscos está crescendo. O OECD AI Risk and Safety Framework (OCDE – Organização para a Cooperação e Desenvolvimento Econômico), lançado em 2025, e iniciativas internacionais semelhantes reconhecem a manipulação de dados e o uso indevido de IA como áreas críticas que exigem padrões compartilhados e supervisão. Para as empresas, alinhar a governança a esses frameworks fortalece a resiliência operacional e reforça a confiança pública.
Proteger a IA passa por assegurar a linguagem que ela compreende
Para concretizar todo o potencial da IA, líderes de cibersegurança precisam abraçar a ideia de que inteligência segura é inteligência sustentável. A próxima era da cibersegurança será definida não pela defesa de sistemas, mas pela defesa da semântica. A integridade de como as máquinas raciocinam, interpretam e se comunicam está se tornando um ativo estratégico.
Proteger a IA significa proteger a própria linguagem da qual ela depende. A confiança definirá a próxima fronteira da inovação. Organizações e nações que liderarem esse campo tratarão a confiança tanto como um diferencial competitivo quanto como uma responsabilidade global compartilhada.
A Inteligência Artificial representa a próxima fronteira da inovação e promete transformar nossa sociedade de maneiras inimagináveis. Com um potencial de mercado estimado em US$ 20 trilhões, é essencial que as pessoas confiem nessa tecnologia para aproveitar ao máximo seus benefícios. Como servidor público há mais de 16 anos, vejo a IA como uma ferramenta poderosa para melhorar a qualidade de vida das pessoas e impulsionar o progresso em diversos setores. A confiança é a chave para garantir que a IA seja utilizada de forma ética e responsável, e devemos incentivar discussões abertas sobre como podemos aproveitar ao máximo essa tecnologia para o bem da sociedade. Afinal, o futuro está em nossas mãos e precisamos garantir que a IA seja uma aliada na construção de um mundo melhor para todos.

