O modelo Claude AI do Anthropic agora pode lidar com instruções mais longas
O Antrópico está aumentando a quantidade de informações que os clientes da empresa podem enviar para Claude em um único prompt, parte de um esforço para atrair mais desenvolvedores para os populares modelos de codificação de IA da empresa. Para os clientes da API da Anthrópica, o modelo AI Claude Sonnet 4 da empresa agora tem uma janela de contexto de um milhão de token – o que significa que a IA pode lidar com solicitações até 750.000 palavras, mais do que todo o Senhor dos Anéis Trilogy, ou 75.000 linhas de código. São cerca de cinco vezes o limite anterior de Claude (200.000 tokens) e mais do que o dobro da janela de contexto de 400.000 token oferecida pelo GPT-5 do OpenAI. O Long Context também estará disponível para o Claude Sonnet 4 através dos parceiros em nuvem da Anthropic, inclusive no Amazon Bedrock e no Vertex AI do Google Cloud. A Anthrópica construiu uma das maiores empresas corporativas entre os desenvolvedores de modelos de IA, em grande parte vendendo Claude para plataformas de codificação de IA, como o Github Copilot da Microsoft, Windsurf e o cursor de qualquer pessoa. Embora Claude tenha se tornado o modelo de escolha entre os desenvolvedores, o GPT-5 pode ameaçar o domínio do Antrópico com seus preços competitivos e forte desempenho de codificação. O CEO da Anysphere, Michael Truell, até ajudou o Openai a anunciar o lançamento do GPT-5, que agora é o modelo de IA padrão para novos usuários em Cursor. O líder do produto da Anthropic para a plataforma Claude, Brad Abrams, disse ao TechCrunch em uma entrevista que ele espera que as plataformas de codificação de IA obtenham um “benefício” dessa atualização. Quando perguntado se o GPT-5 prejudicou o uso da API de Claude, Abrams subestimou a preocupação, dizendo que está “muito feliz com o negócio da API e com a maneira como ele está crescendo”. Enquanto o OpenAI gera a maior parte de sua receita de assinaturas de consumidores para o ChatGPT, os negócios da Anthropic Centers sobre a venda de modelos de IA para empresas por meio de uma API. Isso tornou a IA Coding Platformas um cliente importante para o Antrópico e pode ser por isso que a empresa está jogando algumas novas vantagens para atrair usuários diante do GPT-5. Na semana passada, a Anthropic apresentou uma versão atualizada de seu maior modelo de IA, o Claude Opus 4.1, que levou mais adiante os recursos de codificação da AI da empresa. Evento do TechCrunch São Francisco | 27-29 de outubro de 2025 em geral, os modelos de IA tendem a ter melhor desempenho em todas as tarefas quando têm mais contexto, mas especialmente para problemas de engenharia de software. Por exemplo, se você pedir a um modelo de IA para aumentar um novo recurso para o seu aplicativo, é provável que ele faça um trabalho melhor se puder ver todo o projeto, em vez de apenas uma pequena seção. Abrams também disse ao TechCrunch que a grande janela de contexto de Claude ajuda a ter um desempenho melhor em tarefas de codificação de agitação longas, nas quais o modelo de IA está trabalhando autonomamente em um problema por minutos ou horas. Com uma grande janela de contexto, Claude pode se lembrar de todas as suas etapas anteriores nas tarefas de longo horizonte. Mas algumas empresas levaram grandes janelas de contexto a um extremo, alegando que seus modelos de IA podem processar instruções maciças. O Google oferece uma janela de contexto de 2 milhões de token para Gemini 2.5 Pro, e a Meta oferece uma janela de contexto de 10 milhões de token para o Llama 4 Scout. Alguns estudos sugerem que há um limite para a eficácia das grandes janelas de contexto; Os modelos de IA não são ótimos no processamento desses avisos enormes. Abrams disse que a equipe de pesquisa da Anthropic se concentrava em aumentar não apenas a janela de contexto para Claude, mas a “janela eficaz de contexto”, sugerindo que sua IA pode entender a maioria das informações fornecidas. No entanto, ele se recusou a revelar as técnicas exatas do Antrópico. Quando os avisos para Claude Sonnet 4 são mais de 200.000 tokens, o Antrópico cobrará mais para os usuários da API, por US $ 6 por milhão de tokens de entrada e tokens de entrada de US $ 22,50 por milhão (acima de US $ 3 por milhão de tokens de entrada e US $ 15 por milhão de tokens).
Fonte
Publicar comentário