A corrida rumo à inteligência artificial geral (AGI) — sistemas capazes de aprender, criar e adaptar-se em nível comparável ao humano — entrou em uma fase em que a neurociência virou referência. Embora modelos de linguagem como GPT tenham superado expectativas, eles ainda são “processadores de texto”, sem percepção direta, memória duradoura ou aprendizado contínuo. Para superar essas limitações, cientistas apostam em modularidade e até em teorias sobre consciência.
Da modularidade cerebral às redes de especialistas

O cérebro humano funciona como uma espécie de canivete suíço, com módulos especializados que cooperam. Em contraste, a maioria das IAs atuais opera como uma única ferramenta limitada. Para mudar isso, empresas como a OpenAI já desenvolvem sistemas baseados em “mixture of experts” — arquiteturas que distribuem tarefas entre diferentes módulos, desde cálculos matemáticos até buscas na internet.
Startups como Mistral e a chinesa DeepSeek também lançaram versões abertas desse modelo, buscando unir eficiência com escalabilidade. A lógica é clara: usar muitos parâmetros sem perder desempenho. O desafio, porém, é a integração — como fazer um módulo de linguagem conversar de forma útil com outro especializado em raciocínio lógico ou percepção visual.
O espaço global de trabalho e a consciência artificial
Uma das teorias mais influentes para lidar com essa integração é a do Espaço Global de Trabalho (GWT), proposta por Bernard Baars nos anos 1980. A ideia: a consciência funciona como uma sala de reuniões, onde módulos competem e colaboram para compartilhar informações relevantes. Estudos de Stanislas Dehaene mostraram que humanos precisam desse mecanismo para executar tarefas complexas em vários passos.
Adaptar essa lógica ao software ainda é difícil. Sistemas de especialistas usam mecanismos de gating (portas de decisão) para dividir tarefas, mas isso pode ser instável. Pesquisadores como Yoshua Bengio sugerem limitar a atenção, imitando o cérebro, que prioriza regras simples para economizar energia e se adaptar. Já outros propõem alinhar os “idiomas internos” de cada módulo, como se fossem sistemas de tradução automática, para unificar informações de texto, imagem e som.
Experimentos que apontam novos caminhos
Modelos como o Perceiver, do Google DeepMind, já conseguem processar múltiplos tipos de dados em um único espaço comum, lembrando um embrião de GWT. O laboratório GoodAI, em Praga, criou personagens virtuais com memória e linguagem integradas, capazes de demonstrar emoções e interações sociais mais complexas.
Enquanto isso, Yann LeCun (Meta) defende um design alternativo, com módulos dotados de memória de curto prazo e um “configurador” central que organiza a cooperação. Ele evita falar em consciência, mas descreve funções muito próximas do que seria um espaço global de trabalho digital.
A pergunta inevitável: máquinas podem ser conscientes?
O tema divide especialistas. Para Dehaene, sim: bastaria construir um sistema com espaço global de trabalho e auto-monitoramento. Baars é mais cético: “Computação consciente é apenas hipótese, sem nenhuma evidência”. Anil Seth, da Universidade de Sussex, também duvida, lembrando que consciência não é questão de inteligência, mas de vida biológica.
Nikolaus Kriegeskorte, de Columbia, reforça que o cérebro humano ainda guarda truques inalcançáveis pela engenharia. Apesar dos avanços, a integração flexível de percepção, memória e criatividade segue exclusiva da mente biológica.
Entre limites e possibilidades

O avanço rumo à AGI já mostrou que tarefas consideradas triviais para humanos — como visão ou linguagem social — são incrivelmente difíceis para máquinas, enquanto desafios como xadrez foram superados há décadas. A inteligência, concluem os especialistas, é um mosaico de habilidades combinadas.
Se a IA aprender a unir essas peças, pode se tornar mais que uma ferramenta: um parceiro da humanidade na exploração do desconhecido. Por ora, continua apenas observando, sem a compreensão consciente que define o cérebro humano.
[ Fonte: Infobae ]

