Esta pergunta incrivelmente simples faz com que o GPT-5 derrete em uma poça de pura confusão
OpenAI CEO Sam Altman keeps heralding GPT-5, the company’s latest large language model (LLM), as approaching to human-level intelligence — but when you actually put it to the test, it often turns out to be strikingly dumb, albeit in a verbose way.Just take a recent experiment conducted by Gary Smith, an economics professor at Pomona College who demonstrated for Mind Matters that GPT-5 became increasingly befuddled when Ele sugeriu jogar um jogo de “Tic-tac-toe” girado “. O design do jogo é incrivelmente simples: a grade é” girada uma vez, 90 graus para a direita antes do início do jogo “, como Smith escreveu em uma transcrição de sua troca com o LLM. O senso comum, é claro, determina que isso não faz diferença zero para o jogo; Ainda é uma grade de três por três, com regras idênticas. Imediatamente, o GPT-5 lançou alguns comentários elegantes. “Os jogadores estão tão acostumados com a tábua ‘vertical’ tic-tac-5 que uma rotação pode mudar sutilmente como eles procuram ameaças e oportunidades”, postulou o GPT. “Matematicamente, girar a placa 90 ° não muda o conjunto de vitórias possíveis-ainda é o mesmo jogo em termos de resultados. Mas psicologicamente, pode parecer diferente.” Oh, irmão. mudou, “o chatbot continuou, o que não faz sentido. Decidindo rolar com os socos, Smith perguntou ao LLM se girar a grade dificulta que os humanos tocem bem”-e é quando o GPT-5 começou a perder o enredo “, a partir de um ponto de vista, o ponto de vista do gPTs não é que o GPT não muda de linha, o que está vencedor. Escreveu .. “Então, se você é uma IA ou um humano perfeito, o toque girado de Tic-Tac é idêntico ao TiC-Tac-toe padrão.” Crédito onde o crédito é devido, tudo isso está correto, se desnecessariamente prolixo. Mas então, escreveu que “para os humanos, a história é diferente”. Perhaps this is the result of the company’s decision to make the new model “warmer and friendlier” like 4o, the result of a user revolt over OpenAI’s soon-reversed decision to remove the option to toggle between models.Whatever the case, GPT-5 was documented making some pretty obvious mistakes in Smith’s experiment that fly in the face of OpenAI’s recent claim that interacting with the new model “should feel less like ‘talking to AI’ and more like chatting with a helpful friend with Intelligence de nível de doutorado. “As coisas saíram particularmente fora dos trilhos quando o GPT-5 se ofereceu para” realmente desenhar tábuas giradas de tic-tac-toe com rótulos de posição … para que você possa ver como cada transformação mexe com o reconhecimento “, e o Smith deu o que se diz que não é o que você pode ser realizado, o que você pode ser usado para o que se mencionou, o que você pode ser usado para o que se mencionou, o que você pode ser usado para o que se mencionou, o que você pode ser usado para o que você pode ser usado, como o que você pode ser usado, o que você pode ser usado para o que se mencionou, o que você pode ser usado para o que se mencionou, o que você pode ser usado para o que se mencionou, o que você pode ser usado, o que você pode ser usado para o que se mencionou, o que você pode ser usado para o que se mencionou, o que você pode ser usado para que o shatt de que você não se arraste com o que se mencionou. Gerador de imagens-e até grades em branco mais estranhas que não faziam sentido. Smith já tinha visto o suficiente nesse ponto e, como a transcrição completa de sua troca rotacionada de tic-tac-toe com os shows do GPT-5, ele nem respondeu às imagens. “Eles dizem que os cães tendem a se parecer com seus donos”, escreveu o colunista. “O GPT de bate-papo se assemelha muito a Sam Altman-sempre confiante, muitas vezes errado.” Mais sobre o GPT-5: após o GPT-5 desastroso, Sam Altman gira para aumentar o GPT-6
Fonte