Pular para o conteúdo

AGI: Inteligência Artificial Poderosa – Quão Próxima Está? – Tudo que Você Precisa Saber

Banner Aleatório

Em janeiro de 2025, Masayoshi Son, CEO do SoftBank, declarou durante um evento para investidores que a inteligência artificial geral (AGI, na sigla em inglês) “estará entre nós em menos de uma década” e que “as máquinas logo superarão os humanos em criatividade”.

Banner Aleatório

Um dia depois, Sam Altman, CEO da OpenAI, afirmou em seu blog pessoal que “os caminhos para a AGI já foram mapeados”, referindo-se ao desenvolvimento de um algoritmo chamado Q*, uma das apostas da empresa na corrida pela criação da AGI. Mas o que isso realmente significa? E quão próxima estamos dessa tecnologia?

O que é AGI?

AGI, ou inteligência artificial geral, é a capacidade de uma máquina realizar qualquer tarefa cognitiva que um ser humano possa desempenhar. Diferentemente da narrow AI, ou inteligência artificial estreita, que domina tarefas específicas como reconhecer rostos, prever padrões de consumo ou redigir textos, a AGI exige habilidades amplas: raciocínio abstrato, aprendizado adaptativo, consciência e tomada de decisões em contextos desconhecidos.

“É a ideia de um único sistema que consiga executar qualquer tarefa intelectual humana, incluindo aquelas que requerem consciência ou emoção”, explica Rodrigo Krüger, diretor de produtos da NTT Data, em entrevista concedida ao IT Forum. “Hoje temos modelos multimodais avançados, mas eles ainda estão restritos àquilo para o que foram treinados. Estão longe de entender o mundo como um ser humano entende.”

Um ceticismo fundamentado

Krüger se mostra cético quanto ao prazo otimista divulgado por líderes da indústria. Para ele, a AGI “não chegará em menos de 10 anos” e seu desenvolvimento enfrenta obstáculos técnicos e teóricos profundos. Um dos principais entraves, segundo ele, é a falta de consenso na própria neurociência sobre o que é consciência humana, algo que seria essencial para replicar em máquinas. Além disso, os custos computacionais para treinar sistemas como o GPT-5 chegam à casa das centenas de milhões de dólares, um investimento que poucas empresas conseguem bancar.

Outro gargalo é físico. “Não há hoje infraestrutura computacional para suportar a complexidade que seria exigida por uma AGI. Isso talvez só seja possível com tecnologias disruptivas, como a computação biológica ou quântica, ambas ainda em estágios iniciais de desenvolvimento”, diz Krüger.

Um estudo dos pesquisadores Ari Allyn-Feuer e Ted Sanders, vencedor do concurso AI Worldviews promovido pela Open Philanthropy, estima em apenas 0,4% a chance de que uma AGI transformadora, capaz de substituir o trabalho humano por menos de US$ 25/hora, seja desenvolvida até 2043.

Segundo o artigo, para essa tecnologia emergir será necessário superar pelo menos sete etapas críticas: inventar novos algoritmos, garantir aprendizado mais rápido que o humano, reduzir drasticamente o custo computacional, escalar robótica acessível, ampliar a produção de chips e energia, e evitar interrupções geopolíticas, regulatórias ou econômicas.

Algumas dessas etapas têm estimativas de sucesso baixas. Por exemplo, a chance de que o custo de inferência da AGI fique abaixo dos US$ 25/hora é de apenas 16%, considerando os limites de eficiência energética e as barreiras físicas enfrentadas pela microeletrônica atual.

Leia mais: Como a ideia de AGI virou a “grande teoria” que domina a tecnologia e por quê

Durante o workshop “How Far Are We From AGI?”, realizado na ICLR 2024, a elite da pesquisa em IA reuniu-se para debater a questão. Yoshua Bengio, laureado com o Prêmio Turing, alertou sobre as limitações dos modelos de linguagem atuais, incluindo o GPT-4, que ainda sofrem com alucinações e falhas de raciocínio simbólico robusto.

Yejin Choi, professora da Universidade de Washington, reforçou que, apesar dos avanços impressionantes, os sistemas atuais não têm commonsense reasoning (raciocínio de senso comum), algo trivial para humanos. “A inteligência real requer integração com conhecimento de mundo, percepção e senso ético, atributos que os LLMs ainda não demonstraram”, declarou.

SXSW 2025: tendências e controvérsias

No South by Southwest (SXSW) 2025, a AGI voltou ao centro dos debates. Peter Voss apresentou uma nova arquitetura neuro-simbólica, que combina aprendizado estatístico com regras lógicas explícitas. É uma tentativa de unir a flexibilidade dos LLMs com a estrutura dos sistemas especialistas dos anos 1990.

Outro destaque foi o conceito de Agentic AI, sistemas capazes de definir metas e agir autonomamente para alcançá-las. Embora promissor, o conceito levantou preocupações. O professor Scott Galloway criticou abertamente o avanço da IA sem freios. Ele afirmou que “a maior ameaça da AGI talvez não seja ela nos destruir, mas nos tornar irrelevantes como agentes de decisão”.

Barreiras intransponíveis?

A computação atual está próxima do limite físico da miniaturização dos transistores. O projeto OpenWorm, que há mais de uma década tenta simular o sistema nervoso de um verme com 302 neurônios, ainda não conseguiu replicar seu comportamento em laboratório. Simular um cérebro humano, com seus 86 bilhões de neurônios, ainda é um desafio colossal.

Rodrigo Krüger aponta que mesmo a computação quântica, frequentemente citada como solução, “ainda está engatinhando” e enfrenta barreiras de escala e estabilidade. Já a computação biológica, que usa neurônios artificiais produzidos em laboratório, está em fases experimentais em universidades como Johns Hopkins. Mesmo em cenários otimistas, a expectativa é que essa tecnologia só se torne viável em 10 a 20 anos.

O futuro não é amanhã

Embora empresas como OpenAI, xAI, Meta e SoftBank estejam investindo bilhões na busca pela AGI, os desafios permanecem gigantescos, e não apenas técnicos. Questões éticas, geopolíticas e energéticas ainda não têm resposta. Mesmo que os algoritmos evoluam, será preciso lidar com a imprevisibilidade humana, os limites da física e o custo social de tecnologias que substituem o trabalho humano.

A AGI pode um dia emergir. No entanto, como advertem os próprios pesquisadores do estudo da Open Philanthropy, há muitas formas pelas quais a humanidade pode fazer avanços parciais sem nunca alcançar a transformação completa. Talvez o mais prudente, por ora, seja continuar explorando os caminhos, com ambição, sim, mas também com responsabilidade.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *