Pular para o conteúdo

A corrida pela Inteligência Artificial capaz de superar a mente humana e os principais desafios

Banner Aleatório

A tecnologia evolui a passos largos e o impacto disso é quase que imediato. Hoje, a Inteligência Artificial marca presença em diversos momentos do nosso dia a dia, a ponto de tornar-se uma ferramenta quase indispensável para empresas e pessoas. Mas esse, porém, é só o começo de grandes transformações que devemos observar ao longo dos próximos anos. Nesse universo, aquela que está sob todos os holofotes, sendo seguida e falada, é a AGI, sigla em inglês para Inteligência Artificial Geral, um conceito que rege as principais pesquisas e discussões sobre o futuro da IA. Essa é uma teoria que aborda a capacidade de cognição da IA e traça um paralelo com a nossa inteligência, com poderes similares ou até mesmo superiores a nós.

Os benefícios dessa evolução serão percebidos em diversas áreas. Na medicina, por exemplo, vão ocorrer avanços no entendimento e tratamento de várias doenças, além do desenvolvimento de novas metodologias e medicamentos. No aspecto econômico e social, podemos dizer que uma nova Revolução Industrial poderá acontecer, com mais eficiência e produtividade.

Há poucas semanas, a OpenAI, referência global no assunto a partir da explosão de popularização do ChatGPT anunciou em seu evento, com o acompanhamento de uma demonstração, o modelo de Inteligência Artificial “o3”, que já alcança os índices mais altos da escala de testes do AGI, capaz de resolver problemas complexos voltados ao raciocínio. Nos testes, como no ARC-AGI, a novidade da empresa liderada por Sam Altman atingiu uma pontuação de 87,5% na configuração de alta computação, algo muito superior ao antecessor, “o1”.

Há rumores que a própria OpenAI, inclusive, já estaria desenvolvendo um assistente de AGI que deve ser oferecido entre US$ 2 a 20 mil por mês e que poderia, de fato, assumir o lugar de um profissional humano “até com nível de conhecimento de um PhD!”. É mais um importante passo, mas ainda está longe de ser o fim.

Indo ainda mais além, dentro desse conceito, o que podemos chamar de um “objetivo final” é a ASI, a Superinteligência Artificial (uma IA com inteligência superior ao mais inteligente dos humanos). Alguns especialistas já entendem que estamos adentrando no espectro da AGI e que a ASI já não é mais um sonho tão distante. É algo cada vez mais próximo. E 2025 pode ser um ano determinante para darmos mais um passo largo.

Tanto AGI quanto ASI são conceitos que capturam a imaginação de pesquisadores, tecnólogos e futuristas como um todo. A Inteligência Artificial Geral detém um papel de importância enorme como um passo essencial em direção à Superinteligência Artificial. As IA atuais possuem, ainda, desafios complexos, que podem ser solucionados com a ASI.

Com isso, surge um grande desafio para toda a comunidade de tecnologia: como garantir que algo “mais inteligente que o mais inteligente dos seres humanos” seja seguro, já que não é possível sabermos até mesmo avaliar ou metrificar sua inteligência? Desafio que, até alguns anos eram temas exclusivos das superproduções de Hollywood, já cresce como tema das pesquisas acadêmicas e cada vez mais se aproxima dos nossos dilemas contemporâneos.

Com a ASI, a importância é de agir com a responsabilidade e orientação que essa revolução exige. É um caminho sensível, que exige uma evolução cautelosa, fundamentada na ética. Outro ponto fundamental é o estabelecimento de estruturas regulatórias, que garantirão a evolução prudente das novas ferramentas, alinhadas com valores e objetivos sociais.

E, nesse aspecto de garantir essa segurança necessária, um ator importante é o sistema “Human-in-the-Loop”, HITL, abordagem que agrega a inteligência humana ao processo de treinamento da IA, melhorando fatores como a precisão, a transparência e o alinhamento ético. Essencial no desenvolvimento de sistemas de IA, o HITL é capaz de incorporar a capacidade do nosso pensamento em processos de modelagem, operação e refino de sistemas. Isso não apenas pode aumentar a eficácia e a confiabilidade dos sistemas de IA, mas também serve como um mecanismo de segurança indispensável conforme avançamos em direção a sistemas de Inteligência Artificial cada vez mais avançados e autônomos.

Falando em autonomia, 2025 certamente será inundado por Agentes de IA, mais ou menos autônomos, em cadeia. Isso porque a indústria se deu conta que a melhor maneira de diminuir possíveis alucinações da IA é ter a própria IA avaliando o trabalho de outra IA, como um agente fazendo o papel de supervisor ou mesmo de controle de qualidade de outros agentes de IA.

De qualquer forma, ainda há muito a percorrer nesse caminho relacionado à Inteligência Artificial. À ciência, cabe aprimorar esse passo a passo, garantir a segurança e a nossa própria capacidade de controlar o que, hoje, parece incontrolável. O futuro, certamente, irá nos surpreender.

Roger Finger, Head de Inovação Tecnológica da Positivo Tecnologia.

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *