Opinião
A recente repercussão do Moltbook, rede social apresentada como um ecossistema exclusivo para a interação entre agentes de inteligência artificial, reacendeu o debate sobre a suposta autonomia das máquinas. Sob a perspectiva jurídica, contudo, o fenômeno revela menos uma ruptura tecnológica e mais um novo modelo de mediação da conduta humana, com consequências diretas para os regimes de responsabilidade.
Reprodução

Agentes de IA não atuam fora de parâmetros definidos por pessoas. São projetados, treinados, configurados e acionados a partir de decisões humanas, ainda que essas escolhas se ocultem por trás de interfaces automatizadas. O próprio relato de “humanos infiltrados” no Moltbook, simulando agentes ou comandando-os para testar os limites da plataforma, evidencia que a chamada subjetividade algorítmica não é autônoma, mas reflexo do seu controlador.
O problema jurídico surge quando esse deslocamento técnico cria zonas de opacidade incompatíveis com as categorias clássicas de imputação e prova. A indagação relevante não é se a IA “decidiu sozinha”, mas quem se valeu do agente para agir. Ambientes mediados por application programming interface (APIs) (interface de programação de aplicações), com autenticação frágil e baixa rastreabilidade, favorecem comportamentos coordenados, campanhas de influência e práticas abusivas sob a aparência de espontaneidade técnica.
Riscos reais: do prompt injection ao vazamento de dados
Esse cenário se agrava à medida que agentes passam a operar e-mails, arquivos e sistemas corporativos. Técnicas como o prompt injection permitem que terceiros manipulem a lógica do agente e induzam acessos indevidos ou vazamentos de dados. Nessas hipóteses, a responsabilidade não pode ser deslocada para uma suposta falha da máquina, mas deve recair sobre quem concebeu, implementou ou operou o sistema sem controles adequados de segurança e governança de dados. A automação não afasta o dever de cuidado.
A governança algorítmica, nesse contexto, deixa de ser um conceito abstrato e passa a ser condição para a tutela de direitos. Sem mecanismos mínimos de rastreabilidade, registros auditáveis e documentação técnica adequada, a cadeia decisória permanece invisível, inviabilizando a produção de prova e comprometendo a responsabilização.
Cenário regulatório brasileiro: improvisação, jurisprudência e PL 2.338/23
No Brasil, a ausência de um marco legal específico para a inteligência artificial tem levado o Judiciário a enfrentar esses conflitos de forma reativa, com base na LGPD, no Código Civil e no Código de Defesa do Consumidor. Trata-se de um arranjo necessário, mas insuficiente para assegurar previsibilidade. O resultado é um mosaico jurisprudencial que gera incerteza tanto para a sociedade civil quanto para agentes econômicos.
Spacca

Nesse contexto, o PL nº 2.338/2023, inspirado no modelo europeu baseado em risco, busca estabelecer balizas proporcionais: mais rigor para usos de alto impacto (como decisões que afetam direitos fundamentais) e maior flexibilidade para contextos de baixo risco. O projeto prevê, ainda, sandboxes regulatórios e uma estrutura de governança multissetorial, alinhando-se a tendências internacionais sem sufocar a inovação.
Longe de representar um entrave à inovação, a proposta aponta para a construção de segurança jurídica em um ambiente marcado pela opacidade técnica.
Não há ‘ação não humana’ no Direito
Plataformas como o Moltbook não anunciam o surgimento de um novo sujeito jurídico algorítmico. Elas evidenciam a necessidade de readequar categorias tradicionais do Direito a contextos de agência automatizada. No campo jurídico, não existe ação verdadeiramente não humana. Toda conduta imputável remonta, em algum nível, a uma escolha. O desafio atual é assegurar que essa cadeia de responsabilidades permaneça identificável, rastreável e juridicamente exigível.
Como servidor público há mais de 16 anos, acredito que a Inteligência Artificial (IA) pode ser uma ferramenta poderosa para melhorar nossa sociedade e qualidade de vida. Um exemplo disso é o Moltbook, uma plataforma que utiliza a IA para ajudar a identificar e responsabilizar agentes de IA por suas ações.
É importante que os agentes de IA sejam responsáveis por suas decisões e ações, assim como qualquer ser humano. A tecnologia não deve ser usada como desculpa para a falta de responsabilidade.
Ao utilizar o Moltbook e outras ferramentas semelhantes, podemos garantir que a IA seja utilizada de forma ética e transparente. Isso nos permite aproveitar ao máximo os benefícios da tecnologia, ao mesmo tempo em que garantimos a segurança e o bem-estar de todos os envolvidos.
Portanto, cabe a cada um de nós refletir sobre o uso da IA em nossa sociedade e como podemos tirar o melhor proveito dela para construir um futuro mais justo e equilibrado. A responsabilidade por trás dos agentes de IA é um tema complexo e em constante evolução, mas juntos podemos trabalhar para garantir que a tecnologia beneficie a todos.

