O debate evoluiu em temas fundamentais, mas continua evitando a pergunta que definirá a próxima década. Como evitar que modelos de inteligência artificial se tornem os principais depositários do conhecimento estrutural do Brasil enquanto seguimos sem qualquer proteção sobre nossos dados críticos. Não basta proteger o indivíduo. É preciso proteger o país como organismo vivo. A inteligência artificial já não interage apenas com pessoas e, sim com sistemas inteiros. E esses sistemas estão vulneráveis, completamente expostos.
Os dados que descrevem como o Brasil funciona não são dados pessoais. Isso a LGPD já resolveu. São mapas inteiros com dados de risco financeiro, demanda energética, rotinas industriais, logística, clima, produtividade, mobilidade urbana, saúde pública, ciência, educação, economia criativa e dinâmicas culturais. Quando esses dados alimentam modelos estrangeiros, deixam de ser simples registros, fragmentos. Tornam-se conhecimento. E quando esse conhecimento retorna ao país, retorna como dependência tecnológica.
Recentemente, a nova Estratégia Nacional de Segurança dos Estados Unidos (https://www.whitehouse.gov/wp-content/uploads/2025/12/2025-National-Security-Strategy.pdf?utm_source=chatgpt.com) sinalizou, de forma inequívoca, como grandes potências estão reorganizando sua visão de soberania na era da inteligência artificial. O documento afirma que “Artificial Intelligence, quantum, advanced computing and emerging technologies will determine the economic and military leadership of the next generation (tradução livre: a liderança econômica e militar da próxima geração será determinada pela IA e pelas tecnologias de fronteira). Trata-se de um recado claro: a disputa geopolítica se deslocou para o campo cognitivo. O Brasil não precisa replicar essa agenda, mas precisa reconhecer esse movimento e ajustar sua estratégia se quiser permanecer relevante no novo tabuleiro global.
A estratégia americana também sustenta que proteger cadeias estratégicas e manter vantagem em tecnologias avançadas são pilares da autonomia nacional. O texto diz que os EUA precisam “protect critical supply chains and retain advantage in AI, quantum, chips and advanced manufacturing” (tradução livre: proteger cadeias críticas e manter liderança em IA e tecnologias estratégicas). Em termos práticos, significa proteger os insumos que alimentam a inteligência artificial e, dados críticos são justamente esse insumo. Aqueles que dominam o aprendizado dos modelos dominam a previsibilidade dos sistemas.
IA como estratégia de país
O texto ainda relaciona a IA ao processo de modernização das Forças Armadas e da estrutura institucional, ao afirmar que os EUA reconstruirá sua base de defesa com “AI enabled platforms and resilient command and control” (tradução livre: plataformas baseadas em IA e sistemas de comando e controle resilientes). Aqui, está evidente que a IA passou a funcionar como infraestrutura estratégica que interliga defesa, economia e governança. Assim como quando diz que “America must lead in frontier technologies such as AI to secure long term prosperity” (tradução livre: os EUA precisam liderar tecnologias como IA para garantir prosperidade de longo prazo), a IA é vista como propulsora da competitividade do país.
No campo da diplomacia, a IA é vista como um ativo para cooperação e influência. A estratégia prevê o aumento de parcerias em “AI, advanced energy and nuclear” (em tradução livre: IA, energia avançada e nuclear). E ao definir que a resiliência nacional depende de “securing digital infrastructure, data flows and emerging technology ecosystems” (tradução livre: proteger infraestrutura digital, fluxos de dados e ecossistemas tecnológicos), coloca dados críticos à própria arquitetura de segurança nacional. Nada disso implica que o Brasil deva espalhar a estratégia dos EUA. Mas, implica, sim, reconhecer com maturidade que as grandes potências já tratam dados críticos como patrimônio estratégico, exatamente o tipo de compreensão que o país precisa incorporar para aperfeiçoar o PL 2.338/2023, que propõe a regulação da Inteligência Artificial no Brasil.
O datacenter é apenas o ambiente físico onde essa inteligência é processada. Ele funciona como a refinaria dos nossos dados. Mas, o verdadeiro agente transformador está nos modelos. São eles que assimilam padrões, combinam sinais, projetam cenários e geram previsões capazes de influenciar comportamentos coletivos, mercados inteiros e políticas públicas. Esses modelos aprendem como o país se move. E, ao aprender, podem orientar, antecipar e reorganizar setores sem que exista reciprocidade, supervisão ou retorno proporcional para o país.
Riscos setoriais
O risco se expressa de forma diferente em cada setor.
No sistema financeiro, modelos estrangeiros já conseguem antecipar sinais de estresse que afetam crédito, variações de risco soberano e movimentos de capital, muitas vezes com maior precisão do que instituições nacionais. O perigo não está no dado isolado, mas no modelo que passa a compreender a sensibilidade do mercado brasileiro.
No setor de energia, algoritmos que absorvem séries históricas de consumo, clima e oscilação de carga tornam-se capazes de prever gargalos e sugerir intervenções que influenciam o planejamento de infraestrutura. As concessionárias reagem. Os modelos ditam o ritmo.
Na logística, sistemas internacionais que aprendem com fluxos de transporte, rotas, sazonalidade de estoques e padrões de circulação passam a enxergar gargalos operacionais antes de qualquer autoridade nacional. O modelo conhece a geografia funcional do país com uma nitidez que o poder público não possui.
Na saúde, plataformas que processam dados clínicos e epidemiológicos brasileiros aprendem a detectar padrões emergentes e interferem na oferta de serviços, na precificação de seguros e na compreensão silenciosa do comportamento sanitário do país.
Na indústria, modelos que absorvem telemetria, falhas recorrentes, produtividade de linhas, tempos de ciclo e consumo energético tornam-se capazes de projetar vulnerabilidades e sugerir reestruturações antes de qualquer diretoria ou ministério identificar os primeiros sinais.
Na agricultura, modelos estrangeiros já conseguem prever produtividade regional, resposta do solo, estresse hídrico, risco climático e fluxos logísticos com precisão superior a sistemas nacionais. O agro é apenas um setor, mas é o exemplo mais claro do que acontece quando o país fornece conhecimento, ensina e o modelo aprende sem qualquer retorno.
Na economia criativa, a perda duplica. Modelos de IA absorvem linguagens, estéticas, padrões narrativos, ritmos musicais, estratégias de engajamento e a lógica de consumo cultural produzidos no Brasil. Aprendem a reproduzir o que criamos e, ao fazê-lo, passam a reconfigurar mercados internos e externos, substituindo a originalidade brasileira pela capacidade de replicação algorítmica. A erosão da competitividade criativa ocorre silenciosamente quando o modelo aprende a ser o Brasil sem o Brasil. Samba brasileiro em português e com sotaque carioca poderá não ser mais desse território.
Na educação e na ciência, modelos que assimilam rotinas de pesquisa, bases acadêmicas, padrões de escrita, metodologias, estatísticas e vocabulários técnicos tornam-se capazes de determinar como o conhecimento se estrutura, circula, se valida e se reproduz. A lógica do modelo altera a lógica da produção científica.
Os desafios ao PL 2.338
Esses riscos não são projeções hipotéticas. Não são meras especulação. Já estão funcionando como mecanismos de reorganização de setores inteiros. É precisamente por isso que o PL 2338 não pode limitar seu escopo à proteção da pessoa humana. Deve preservá-la, mas também precisa proteger o conjunto de sistemas que sustentam a vida material. Sem economia estável, segurança alimentar, soberania energética, saúde pública eficiente, indústria competitiva e autonomia tecnológica não existe dignidade possível. Os direitos individuais dependem de sistemas coletivos que funcionem.
O PL 2338 precisa reconhecer expressamente que dados críticos existem e precisam de proteção específica. Esses dados não devem sair do território cognitivo brasileiro sem parâmetros claros de interesse público, prevenção de riscos sistêmicos, transparência, condições de uso por modelos e preservação das cadeias produtivas. Não se trata de impedir o treinamento de modelos, mas de assegurar que esse processo não gere assimetrias estruturais irreversíveis.
A mensagem é simples. Políticas centradas apenas na proteção da pessoa humana se tornam insuficientes quando ignoram aa proteção da inteligência que descreve o país. A economia precisa continuar funcionando. A segurança alimentar precisa estar garantida. A soberania tecnológica precisa ser construída. E o Estado deve compreender, de forma soberana, o funcionamento das suas próprias cadeias produtivas. Se modelos estrangeiros aprenderem a interpretar e antecipar o Brasil melhor do que o próprio Brasil, o resultado não será apenas dependência tecnológica, mas dependência cognitiva.
O PL 2338 precisa ser reescrito. Deve ser completado com a clareza de que proteger dados críticos significa proteger a própria capacidade do Brasil de existir como ator soberano no ecossistema global de inteligência artificial. Nenhuma nação poderá prosperar se entregar sua inteligência sem contrapartida. O risco não está no algoritmo que decide, mas no modelo que aprende.
O Brasil precisa garantir que a inteligência que nasce aqui permaneça como ativo estratégico nacional. O futuro será decidido por quem controlar a inteligência dos sistemas que organizam o mundo. O relógio está correndo. O Brasil não pode atrasar o passo quando a lei deve garantir que a inteligência brasileira continue sendo brasileira.
*- Sobre o autor: Marcelo Bechara é Diretor de Relações Institucionais, Regulação e Mídias do Grupo Globo, ex-conselheiro da Anatel e ex-membro titular do Comitê Gestor da Internet, além de membro do Conselho superior da Abert.


