Atari 2600 ganha do ChatGPT no xadrez

Um Atari 2600, console de videogame lançado em 1977, foi capaz de vencer com facilidade o ChatGPT em partidas de xadrez.

Pelo menos é o que conta Robert Caruso, um especialista em infraestrutura inglês, que organizou as partidas ao longo do último fim de semana.

Em um post no LinkedIn, Caruso disse que teve a ideia depois de conversar com o ChatGPT sobre a história do xadrez.

O Atari 2600 tinha um jogo de xadrez, e foi possível conectar o chatbot ao console por meio do Stella, um emulador.

Segundo relata Caruso, a inteligência artificial confundia peões com bispos e se perdia frequentemente na localização das peças.

O ChatGPT teria afirmado que o problema era a dificuldade em reconhecer a representação das peças no jogo.

Caruso então mudou para a notação de xadrez, um sistema padronizado usado para registrar e descrever os lances de uma partida.

O ChatGPT continuou cometendo erros de principiante, aponta Caruso.

Para entender o que isso significa, é preciso considerar dois aspectos.

Hoje, a maioria dos processadores comuns tem 64 bits e uma capacidade mil vezes superior à disponível em um Atari — para não falar da capacidade envolvida no funcionamento do ChatGPT, que exigiu bilhões de dólares em investimentos.

Entre jogadores de xadrez, o Atari é considerado um adversário desafiador para iniciantes ou para pessoas com habilidade média que joguem com alguma frequência.

Millôr Fernandes, o gênio do Méier, debochou uma vez dos que veem a habilidade no xadrez como uma representação da inteligência, apontando que o xadrez é um jogo que desenvolve a habilidade de jogar xadrez. 

Por outro lado, existem outros indicativos na praça que o ChatGPT pode ser muito tagarela, mas não verdadeiramente inteligente. 

O resultado do experimento recreativo do inglês é respaldado por um estudo recente da Apple Research, intitulado The Illusion of Thinking.

Segundo o estudo, os modelos de linguagem não possuem raciocínio genuíno.

Para demonstrar isso, a Apple submeteu os modelos a quatro quebra-cabeças lógicos clássicos em ambientes totalmente sintéticos e controlados.

Como resultado, observou-se que, mesmo em níveis de complexidade baixos e médios, em tarefas triviais para humanos, que exigiam apenas lógica básica, os modelos começaram a falhar.

Não havia plano ou modelo cognitivo da tarefa, nem capacidade de abstração, generalização, aplicação consistente de regras lógicas ou verificação de resultados.

“Os modelos imitam superficialmente o processo de pensamento, usando padrões aprendidos estatisticamente a partir de dados. A ilusão de inteligência desmorona diante de tarefas que exigem raciocínio lógico genuíno, indo além da mera adivinhação probabilística iterativa em contextos artificiais”, aponta, em um post no LinkedIn, Cezar Taurion, CEO da RedCore e uma das maiores autoridades em IA no Brasil.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima

Obrigado por escolher a Melhor!

Escolha a cidade que deseja atendimento!