
Getty Images
Acessibilidade
Imagine que você vai visitar o “chefão da IA”, aquele que controla todos os tipos de sistemas: correios, concessionárias de serviços públicos, sistemas governamentais, operações comerciais etc. Você entra na sala de comando e lá está ele: um grande e belo cérebro, por assim dizer, pulsando em cores vibrantes enquanto um conjunto de fios conecta seu corpo à rede.
Ok, vou puxar a cortina dessa visão eletrizante, porque, segundo diversos especialistas, não é isso que você verá com uma inteligência artificial geral.
Em vez disso, à medida que nos aproximamos da singularidade, algumas das mentes mais brilhantes defendem que o que você provavelmente verá se parece mais com a visualização da própria internet: algo acontece aqui, outra coisa acontece ali, e há canais eficientes conectando tudo em tempo real. À primeira vista, pode parecer caótico, mas o sistema funciona com a elegância e precisão de um relógio suíço — complexo, dinâmico e surpreendentemente coerente.
A mente de Minsky
Se você acompanha este blog com alguma frequência, provavelmente já se cansou de me ver citando um dos grandes nomes do MIT, Marvin Minsky, e seu livro Society of the Mind, no qual ele defende exatamente essa ideia. Minsky afirmou, após muita pesquisa e reflexão, que o cérebro humano, apesar de ser um único órgão biológico, não é um computador, mas sim uma série de várias “máquinas” diferentes conectadas entre si.
Você pode argumentar que isso é apenas uma questão semântica: afinal, sabemos como funciona o córtex, como os dois hemisférios cerebrais se coordenam e qual é o papel de subórgãos como a amígdala. Mas Minsky trouxe mais do que isso em sua obra: ele apresentou a ideia das “k-lines”, ou linhas do conhecimento — as trajetórias pelas quais formamos nossas memórias. Pense nas rotas dos pacotes de dados na internet — há uma semelhança aí.
Minsky também explorou o que alguns descrevem como a imanência do significado — a noção de que o significado não está embutido nos dados em si, mas emerge do ato de interpretação. Isso, para mim, tem um toque profundamente zen. Se você buscar o significado de “imanência”, verá que ela é muitas vezes vista como o oposto da transcendência: não é subir, mas mergulhar fundo. Curiosamente, há uma base científica rigorosa que ecoa essa filosofia, especialmente na teoria de aprendizagem conhecida como construtivismo, que sustenta que não absorvemos conhecimento passivamente — nós o construímos ativamente por meio da experiência.
Isso faz muito sentido e, eu diria, nos dá outra lente útil para observar a IA. Quando se discute se a IA é “real” ou “senciente”, eu diria que, de certa forma, são as ondulações provocadas pela pedra que são mais reais do que a própria pedra (para usar uma metáfora física) — a “realidade” da IA está em como processamos seus produtos.
Para ser justo, à medida que os agentes evoluírem, eles se tornarão bem reais de outras formas também. Vão operar e manipular sistemas 24 horas por dia, 7 dias por semana, se metendo em tudo que puderem alcançar com suas mãos digitais.
É aí que entra uma apresentação feita por Abhishek Singh no IIA, em abril. Singh aborda, de maneira bastante convincente, como provavelmente vamos reagir a essas novas “espécies” digitais de inteligência.
O tripé da inteligência
Singh descreve o que chama de “trilema da inteligência” — uma tensão fundamental entre três qualidades desejáveis que raramente são alcançadas simultaneamente por um sistema. A primeira é a escalabilidade: o sistema consegue funcionar bem conforme cresce? A segunda é a coordenação: diferentes partes conseguem trabalhar em conjunto de forma fluida? A terceira é a heterogeneidade: indivíduos ou componentes conseguem assumir papéis diferentes e especializados?
Para ilustrar essa tensão, Singh cita exemplos da natureza. As colônias de formigas alcançam uma escala impressionante — milhões de indivíduos trabalhando juntos — com ótima coordenação. No entanto, as formigas são praticamente intercambiáveis, o que limita a complexidade das tarefas que conseguem executar.
Já os lobos, por outro lado, apresentam alta heterogeneidade — os membros da alcateia assumem papéis distintos como caçadores, batedores ou cuidadores — e coordenam-se bem dentro do grupo. Mas as sociedades de lobos não escalam: as alcateias raramente passam de uma dúzia de membros.
“O que torna as sociedades humanas únicas”, explica Singh, “é nosso esforço contínuo para equilibrar essas três qualidades simultaneamente, embora ainda enfrentemos trade-offs fundamentais”.
Isso reflete um princípio da teoria dos sistemas distribuídos (como bancos de dados), chamado Teorema CAP, que afirma que sistemas de banco de dados só conseguem otimizar dois entre três atributos desejáveis. Singh sugere que uma dinâmica semelhante rege como sistemas inteligentes — sejam sociedades animais, organizações humanas ou redes de inteligência artificial — se organizam.
Entrando no CHAOS
Singh então apresenta um novo tipo de teoria do caos, que ele chama de “Teoria CHAOS 2.0” — diferente da teoria do caos tradicional, sendo um arcabouço para entender como Coordenação, Heterogeneidade e Escalabilidade interagem em sistemas de IA.
“Em sistemas centralizados”, explica Singh, “quando você otimiza duas dessas qualidades, inevitavelmente sacrifica a terceira. Mas operar de forma descentralizada pode ajudar a superar esses limites.”
No entanto, Singh destaca que descentralização sozinha não é uma solução mágica. “Você precisa de algoritmos e protocolos específicos que realmente permitam atingir esses três objetivos de maneira descentralizada. Nós abordamos isso com dois conceitos-chave: protocolos locais e comportamento emergente.”
Para ilustrar, Singh contrasta duas abordagens de inteligência artificial. O paradigma atual se assemelha a “um grande cérebro instalado numa grande empresa de tecnologia, capaz de lidar com todas as tarefas simultaneamente.” A alternativa seria “vários pequenos cérebros interagindo entre si. Nenhum deles, sozinho, é poderoso o suficiente, mas juntos, por meio de protocolos de coordenação, geram uma inteligência emergente que supera a soma de suas partes.”
Curiosamente, Singh observa que mesmo a abordagem do “grande cérebro” enfrenta o mesmo trilema, apenas em uma escala diferente. “Dentro daquela grande rede neural, há milhões de parâmetros se coordenando e resolvendo subtarefas — é daí que vem a heterogeneidade. O trilema se manifesta de forma fractal, em múltiplos níveis do sistema.”
Ele retoma a ideia que mencionei acima: que a heterogeneidade das tarefas talvez seja um conceito semântico, pois, dentro de um grande cérebro, muitas coisas diferentes estão acontecendo ao mesmo tempo. Em outras palavras, devido à anatomia cerebral, as células do cérebro não são completamente intercambiáveis.
“Essa abordagem de um grande cérebro também lida com o trilema, mas de forma fractal”, observa ele. “Dentro daquela grande rede neural, há muitos parâmetros — eles se coordenam entre si e resolvem subtarefas diferentes. Por isso há heterogeneidade.”
Singh se inspira na forma como as sociedades humanas resolveram desafios de coordenação ao longo da história. “Em nível de espécie”, explica, “temos a linguagem, as instituições culturais, as instituições financeiras — e os preços não servem apenas para comprar coisas, mas também transmitem informações sobre a utilidade dos bens.” Ele menciona normas sociais que permitem que as pessoas operem dentro de certos limites e, especialmente, os sistemas de transferência de conhecimento — “todas as instituições que criamos para educar pessoas e transmitir saber entre gerações.” Esses mecanismos biológicos e sociais de coordenação, argumenta Singh, oferecem modelos para como agentes de IA poderiam se organizar.
Assista à parte do vídeo em que Singh fala sobre mercados financeiros, normas sociais e transferência de conhecimento, e você verá aplicações práticas dessas ideias no mundo real. Ele também destaca as semelhanças entre sistemas de agentes e a internet nos seus primórdios, quando os humanos precisavam criar estruturas de conexão como HTTP, SSL etc. Singh menciona o model context protocol (MCP) e, como era de se esperar, cita o acrônimo NANDA, que representa o ambicioso projeto do MIT para criar a “internet dos agentes de IA”.

