De acordo com o criador do IA, ‘não tive uma boa noite de sono desde que ChatGPT foi lançado’, diz Sam Altman.
Por Redação
Enquanto chatbots como o ChatGPT capturam a imaginação do público, a vanguarda da pesquisa em inteligência artificial (IA) se volta para um conceito mais fundamental e ambicioso: os modelos de mundo. A meta é criar sistemas de IA capazes de construir e manter representações internas do ambiente físico, permitindo um raciocínio mais robusto e seguro.
O que são modelos de mundo?
Essencialmente, um modelo de mundo é uma espécie de “maquete computacional” que uma IA carrega consigo. Essa representação interna permite que o sistema simule cenários, avalie previsões e tome decisões antes de interagir com o mundo real. Pesquisadores renomados como Yann LeCun (Meta), Demis Hassabis (Google) e Yoshua Bengio (Mila) acreditam que esses modelos são cruciais para o desenvolvimento da Inteligência Artificial Geral (AGI) — uma IA com capacidades cognitivas humanas.
A ideia não é nova. Psicólogos, roboticistas e cientistas da computação exploram o conceito há décadas. O psicólogo escocês Kenneth Craik, em 1943, já especulava que organismos que carregam um “modelo em pequena escala” da realidade em suas mentes são capazes de experimentar alternativas e reagir de forma mais competente. Essa noção influenciou a “revolução cognitiva” e ligou intrinsecamente a cognição à computação.
Desafios e evolução
Apesar da aparente simplicidade do conceito, a implementação de modelos de mundo enfrenta desafios significativos. A principal questão reside em o que exatamente deve ser representado e com qual nível de fidelidade. Além disso, a origem desses modelos — se inatos ou aprendidos, ou uma combinação de ambos — e como detectar sua presença continuam sendo pontos de debate.
Historicamente, a IA tentou incorporar modelos de mundo. Sistemas como o SHRDLU, nos anos 1960, usavam “mundos de blocos” rudimentares para responder a perguntas. No entanto, esses modelos manuais não conseguiam escalar para ambientes complexos. Rodney Brooks, pioneiro em robótica, chegou a argumentar nos anos 1980 que “o mundo é o seu melhor modelo” e que representações explícitas eram um obstáculo.
Foi o advento do aprendizado de máquina e, em particular, do aprendizado profundo (deep learning), que reavivou o interesse nos modelos de mundo. Redes neurais profundas, em vez de dependerem de regras codificadas manualmente, demonstraram a capacidade de construir aproximações internas de seus ambientes de treinamento através de tentativa e erro.
A surpresa dos LLMs e a busca pelo “elefante”
Nos últimos anos, grandes modelos de linguagem (LLMs) por trás de chatbots como o ChatGPT têm exibido capacidades emergentes surpreendentes. Especialistas como Geoffrey Hinton e Ilya Sutskever sugeriram que esses LLMs poderiam conter “modelos em pequena escala da realidade externa”.
No entanto, a realidade atual parece ser menos impressionante. Em vez de modelos de mundo coerentes, os LLMs atuais parecem operar com “sacos de heurísticas”: um conjunto de regras desconectadas que aproximam respostas para cenários específicos. Essa abordagem é comparada à parábola dos homens cegos e do elefante, onde cada indivíduo, tocando apenas uma parte do animal, falha em compreender sua forma completa. Pesquisadores que buscam evidências de um modelo de mundo em um LLM encontram fragmentos, mas não a representação unificada.
Por que modelos de mundo são essenciais?
Embora as heurísticas dos LLMs sejam úteis, a falta de um modelo de mundo coerente tem um custo: a robustez. Quando um LLM treinado para navegar em Manhattan teve seu desempenho drasticamente reduzido por um bloqueio aleatório em 1% das ruas, isso evidenciou a fragilidade de um sistema baseado em suposições conflitantes em vez de um mapa de ruas consistente.
Modelos de mundo robustos e verificáveis prometem não apenas um caminho para a AGI, mas também ferramentas cruciais para extinguir alucinações de IA, permitir um raciocínio confiável e aumentar a interpretabilidade dos sistemas de IA.
O caminho a seguir
O “como” construir esses modelos de mundo ainda é um campo de exploração ativa. Gigantes como Google DeepMind e OpenAI apostam em dados de treinamento multimodais (vídeo, simulações 3D, etc.) para que um modelo de mundo surja espontaneamente. Yann LeCun, por outro lado, sugere que uma nova arquitetura de IA, não generativa, pode ser a chave.
A busca por esses “globos de neve computacionais” é um dos desafios mais empolgantes da IA atualmente, com um prêmio que pode, pela primeira vez, valer a pena toda a jornada.
Siga o Agenda Capital no Instagram>https://www.instagram.com/agendacapitaloficial/
Da Redação do Agenda Capital


