Há uma teoria convincente por que o GPT-5 é uma merda tanto
O lançamento do tão esperado modelo GPT-5 da Openai na semana passada marcou um capítulo ignominioso para a empresa. Enquanto possuía atualizações modestas de desempenho no papel, a experiência real de usá -lo deixou muitos fãs muito desapontados. As críticas comuns eram que suas respostas eram muito curtas e sua escrita era visivelmente pior e desprovida de personalidade. Além disso, muitos observaram que, apesar de sua inteligência de “nível de doutorado”, ainda cometeu erros idiotas, como insistir, há três Bs na palavra “mirtilo”. Foi uma decepção que os fãs exigiram que o OpenAI devolvesse o acesso ao modelo anterior GPT-4O, que a empresa removeu com ousadia com o lançamento do GPT-5. E, impressionantemente, o Openai capitulou para a demanda dos fãs. Na soma, não parecia um “passo significativo ao longo do caminho para a AGI”, como o CEO Sam Altman se gabou. Pode haver uma razão interessante por que a atualização do ChatGPT parece tão sem brilho. Como o registro especula, é provável que o GPT-5 seja realmente para ser “menos um avanço e mais uma maneira de salvar o custo de computação”. É uma teoria impressionante, destacando como a indústria da IA continua a queimar bilhões de dólares, eclipsando receitas moderadas. O OpenAI pode estar procurando bombear os freios para melhorar suas chances de obter lucro antes do final da década, mas se isso é uma possibilidade neste momento continua sendo um ponto de discórdia. O GPT-5 não é um modelo único-na verdade é uma equipe de tags de um modelo leve para lidar com solicitações básicas e mais uma que não se destaca para lidar com as tarefas complexas de “raciocínio”. Um modelo de roteador separado escolhe qual dos dois LLMs deve ser marcado, com base no prompt. Como o modelo de roteador foi péssimo em seu trabalho e “quebrou” no dia do lançamento, afirmou Altman, fazendo o GPT-5 parecer “mais idiota”. Agora está novamente on -line com algumas melhorias, mas pouco fez para conciliar a fúria dos fãs em ter suas escolhas limitadas. O importante argumento disso é que a implantação desse “automóvel automático” se afasta da abordagem do OpenAI no passado, as notas do registro, que permitiram que os usuários pagos simplesmente selecionassem qual modelo queriam usar, em vez de ser escolhido automaticamente. Manter todos esses modelos on-line, no entanto, é caro, reforçando a ideia de que o fabricante de chatgpt está passando por um aperto de cinto ao se livrar deles-embora desde então tenha revertido o curso e restaurado o acesso a usuários pagos. Há outros sinais flagrantes de corte de custos, como um limite severo de apenas dez mensagens por hora para usuários livres. O OpenAI também está mantendo a “janela de contexto” do modelo – essencialmente sua memória – a mesma de antes, limitada a 32.000 tokens para usuários Plus e 128.000 para o Pro. Os fãs, especialmente os da camada positiva-que por US $ 20 é a única camada acessível para a maioria, pois o Pro custará US $ 200 por mês-está implorando por uma atualização nessa área. seus modelos caros e capazes e substituir[d] eles com um auto-roteador que padroniza a otimização de custos “, escreveu o usuário.” Isso soa ruim, então eles o envolvem como como [GPT-5] e proclamar que é incrível. “” Parece economizar custos, não como melhorias “, supôs outra. Os fãs selvagens se tornariam as peculiaridades de seus modelos mais antigos, mesmo que sejam nominalmente inferiores – e isso não é um problema que desaparecerá tão cedo.
Fonte
Publicar comentário