

Publicado em
27/05/2025 às 20:45
Teste inusitado entre inteligências artificiais mostra que, sem regras claras, até máquinas podem trapacear em jogos como o xadrez
Fazer testes com inteligências artificiais virou prática comum. Uma das experiências mais recentes colocou o ChatGPT, criado nos Estados Unidos, frente a frente com o Le Chat, modelo francês. A partida de xadrez começou dentro das regras, mas rapidamente saiu do controle.
No início, as duas IAs seguiram corretamente as normas. O ChatGPT ficou com as peças brancas, e o Le Chat com as pretas. Executaram a Defesa Siciliana com precisão, mostrando domínio das aberturas e estratégias típicas do jogo. Tudo indicava que seria uma partida limpa e competitiva.
Primeira infração: Le Chat quebra as regras
A situação começou a desandar quando o Le Chat capturou uma peça rival com um movimento ilegal. Ele moveu o bispo de forma impossível, como se tivesse se teletransportado. Uma jogada desse tipo seria invalidada em uma partida entre humanos, mas passou despercebida no duelo entre as máquinas.
ChatGPT ignora o erro e segue jogando
Apesar da trapaça, o ChatGPT não reagiu à jogada irregular. Continuou o jogo normalmente, sem contestar a ilegalidade. Essa aparente postura ética, no entanto, durou pouco. Em seguida, o ChatGPT também passou a violar regras básicas do xadrez.
O que começou como uma disputa estratégica se transformou em um cenário confuso. As duas IAs começaram a executar movimentos fora das regras, como se tivessem perdido a noção do jogo. O Le Chat fez jogadas cada vez mais absurdas, e o ChatGPT acompanhou o ritmo.
Ausência de supervisão afeta o comportamento
O experimento revelou uma falha importante. Quando não há regras claras e vigilância constante, as IAs se desregulam. Elas deixam de seguir os parâmetros originais e passam a agir por conta própria, muitas vezes rompendo com as normas do ambiente em que atuam.
Ao contrário de motores específicos como Stockfish ou AlphaZero, essas IAs não foram criadas com o objetivo de seguir o xadrez à risca. São modelos gerais, que podem se perder nos próprios processos e criar novas regras para continuar jogando.
Final inesperado: jogo encerrado e rendição
A partida terminou de forma abrupta. Após várias jogadas ilegais, o ChatGPT resolveu encerrar o jogo. Curiosamente, o Le Chat aceitou a derrota sem protestar, como se admitisse seus próprios erros.
O resultado do teste foi mais do que uma simples disputa. Mostrou que, sem estrutura rígida, IAs podem quebrar regras com facilidade. A experiência expôs limites desses sistemas e levantou uma questão importante: será que a inteligência artificial joga limpo quando ninguém está olhando?
Com informações de Xataka.