Modelos como o ChatGPT e o Claude tendem a superestimar a lógica do pensamento humano, falhando em jogos estratégicos porque assumem que as pessoas raciocinam de forma mais consistente do que realmente fazem. A descoberta levanta questões importantes sobre o uso da IA em decisões complexas, como as que moldam os mercados financeiros
Um estudo da Universidade HSE, na Rússia, mostra que os sistemas de inteligência artificial (IA), como o ChatGPT e o Claude, tendem a superestimar como as pessoas realmente pensam. Sejam eles estudantes universitários do primeiro ano ou cientistas experientes. Em jogos de estratégia, assumem que os humanos raciocinam de forma mais lógica do que fazem na prática — e isso leva a IA a perder.
Os investigadores usaram um jogo chamado “concursos de beleza keynesiano”, criado pelo economista britânico John Maynard Keynes na década de 30. Este envolve leitores de jornais. Cada pessoa escolhe seis rostos que considera mais atraentes de um conjunto de 100 fotos. Quem se aproximar mais de metade da média de todos os números vence.
O objetivo é prever o que os outros vão escolher, quando a maioria das pessoas seleciona apenas aqueles que realmente considera mais bonitos. Porém, não basta apenas escolher o seu próprio número favorito. Este jogo testa a capacidade de antecipar o pensamento dos outros. Um participante racional deve basear suas escolhas na percepção de beleza de outras pessoas.
Cinco modelos de IA, incluindo o ChatGPT-4 e o Claude-Sonnet-4, jogaram contra diferentes tipos de participantes: estudantes de economia, especialistas em teoria dos jogos e até pessoas com emoções como raiva ou tristeza.
As IAs ajustaram as suas escolhas com base na experiência dos oponentes: contra especialistas, escolhiam números muito baixos; contra iniciantes, números mais altos. Mostraram algum pensamento estratégico, mas não conseguiram encontrar a melhor estratégia em todos os casos.
Mas porque é isto relevante? Este tipo de jogo ajuda a entender o funcionamento dos mercados financeiros: os investidores não compram apenas o que eles querem, mas o que acham que os outros vão querer. “Estamos num momento em que a IA começa a substituir humanos em muitas tarefas, aumentando a eficiência. Mas, em decisões complexas, é importante que as IAs se comportem de forma semelhante aos humanos. Cada vez mais, estamos a comparar o comportamento da IA com o humano, e esta área vai crescer rapidamente”, explica Dmitry Dagaev, investigador da HSE

