O recente episódio em que o presidente Lula e a primeira-dama Janja pedem ao líder chinês, Xi Jinping, o envio de um “consultor de confiança” para ajudar na regulamentação de uma rede social não foi um tropeço de linguagem nem um gesto meramente simbólico. Foi revelador. Escancarou o que se insinuava há tempos: o desejo explícito do governo de influenciar a forma como o conteúdo circula nas plataformas digitais —decidir o que ganha visibilidade, o que merece silêncio, quem pode falar e com qual alcance.
Essa disposição para intervir na arena pública se ampara, cada vez mais, em uma retórica de proteção: proteger usuários, combater a desinformação, prevenir riscos tecnológicos. Mas, sob essa aparência benigna, multiplicam-se propostas que entregam ao Estado —ou a agências por ele controladas— instrumentos para filtrar opiniões, moldar algoritmos e tutelar a esfera pública.
É nesse ambiente que se instala a Comissão de Inteligência Artificial na Câmara dos Deputados, encarregada de revisar o projeto de lei 2.338/2023. O texto, já aprovado no Senado, tem sido apresentado como uma tentativa de regular os sistemas de IA —mas, na prática, oferece uma moldura jurídica feita sob medida para intervenções infralegais no debate público. Um potencial atalho autoritário.
O alerta não é abstrato. Hoje, todo usuário de rede social interage com sistemas de inteligência artificial —eles organizam o que aparece primeiro, o que desaparece do feed, o que é promovido ou reduzido a ruído. Interferir nesses mecanismos é, na prática, interferir na liberdade de expressão. E é exatamente esse poder que o PL 2.338, se aprovado como está, coloca à disposição do regulador estatal.
O artigo 15, por exemplo, permite órgãos infralegais classificarem como “alto risco” qualquer sistema que afete “direitos fundamentais”, sem delimitação precisa. Essa abertura conceitual, somada à delegação ampla de competências ao Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), coordenado pela ANPD (Autoridade Nacional de Proteção de Dados), permite enquadrar algoritmos de recomendação ou moderação como tecnologias sensíveis —sujeitas a controles arbitrários.
Os artigos 46 e 47 aprofundam essa tendência ao conceder à ANPD poderes fora do comum. O artigo 47, em especial, consagra o que se poderia chamar de um poder de “regulação residual”: na ausência de lei específica e órgão competente, tudo que envolva IA —uma tecnologia transversal— passa a ser atribuição da ANPD, que pode normatizar, fiscalizar e sancionar conforme seu entendimento.
Nada impede que atos infralegais sejam utilizados para fiscalizar, pressionar ou penalizar plataformas —ou moldar preventivamente suas condutas. Um poder grande demais se cair em mãos erradas.
O resultado pode ser um modelo de regulação que, longe de proteger a sociedade, proteja o Estado de críticas. E que transformaria a promessa de governança técnica em instrumento de disciplinamento discursivo.
A inteligência artificial, nesse cenário, deixa de ser uma tecnologia a serviço das pessoas e passa a ser um filtro sob vigilância institucional. Como na China.
Democracias não se constroem com filtros impostos de cima para baixo. E liberdade de expressão não sobrevive à lógica de “quem pode falar, fala —mas do jeito certo”. A vigilância necessária não é sobre os algoritmos: é sobre o impulso de controlá-los.
TENDÊNCIAS / DEBATES
Os artigos publicados com assinatura não traduzem a opinião do jornal. Sua publicação obedece ao propósito de estimular o debate dos problemas brasileiros e mundiais e de refletir as diversas tendências do pensamento contemporâneo.