Sam Altman chama seu próprio modelo de IA de “irritante” depois de ser forçado a levantá -lo dos mortos

Enquanto o OpenAI continua tentando diminuir o caos do lançamento desastroso do GPT-5, o CEO Sam Altman está lançando escavações no agora depreciado e controverso modelo. Sem aviso, a empresa substituiu todas as versões anteriores pelo modelo mais recente-que, além de ser profundamente assombroso, provou ter um tom mais frio e menos obsequioso do que seu antecessor, GPT-4O. A resposta dos usuários da empresa foi rápida e imediata. Muitas pessoas, particularmente aquelas que parecem ter desenvolvido um apego ou até mesmo dependência do modelo 4O e seu estilo sinofântico, reagiram com frustração e angústia à mudança abrupta. Sem um dia depois, o GPT-4o estava de volta-para pagar os clientes, que é um post para o Model-Picker por dia, a noite passada por Altman, afirmou que 4o é “. Ele também prometeu que, se o OpenAi matar o modelo 4O obsequioso para o bem, a empresa “dará bastante aviso”. E, quanto à personalidade mais fria do GPT-5, Altman prometeu que isso também mudaria, escrevendo que o OpenAI está trabalhando na “Atualização da Alta do GPT-5, que deve se sentir mais quente que a personalidade atual, mas não a mais irritante (mais irritante (a maioria dos usuários), como o GPT-5, que deve se sentir mais quente. a large enough faction of its user base is to AI sycophancy, not to mention how willing the AI company is to acquiesce to those users’ outrage.That’s striking, given that sycophancy has contributed to users experiencing deep emotional enmeshment with ChatGPT, AI-fueled delusional spirals, and full-blown breaks from reality — a serious issue linked to functions of the tech that go beyond the model simply being “annoying” to some Usuários.altman completou o post anunciando que uma das maiores sugestões do OpenAI do lançamento do GPT-5 é que “realmente precisamos chegar a um mundo com mais personalidade do modelo de personalidade do modelo”. Posição de levantar as sobrancelhas para o CEO tomar.Sure, os usuários sempre terão preferências. Mas se essas preferências estão contribuindo para o uso e a dependência prejudiciais, deve caber aos usuários projetar seu próprio medicamento personalizado? Mais sobre a dependência da IA: olhar para este subreddit pode convencê -lo de que ai foi um grande erro

Fonte

Publicar comentário

Você pode ter perdido