O OpenAI lança dois modelos de raciocínio de IA ‘Open’

O Openai anunciou na terça-feira o lançamento de dois modelos de raciocínio de IA de peso aberto com recursos semelhantes à sua série O. Ambos estão disponíveis gratuitamente para download da plataforma de desenvolvedor on-line, Hugging Face, disse a empresa, descrevendo os modelos como “de última geração” quando medidos em vários benchmarks para comparar modelos abertos. Os modelos vêm em dois tamanhos: um modelo GPT-OSS-120B maior e mais capaz que pode ser executado em uma única GPU da NVIDIA e um modelo GPT-20B mais leve que pode ser executado em um laptop de consumo com 16 GB de memória. O lançamento marca o primeiro modelo de idioma ‘aberto’ do OpenAI desde o GPT-2, que foi lançado há mais de cinco anos. Em um briefing, o OpenAI disse que seus modelos abertos serão capazes de enviar consultas complexas aos modelos de IA na nuvem, como relatou o TechCrunch anteriormente. Isso significa que, se o modelo aberto do OpenAI não for capaz de uma determinada tarefa, como o processamento de uma imagem, os desenvolvedores podem conectar o modelo aberto a um dos modelos fechados mais capazes da empresa. Enquanto os modelos de IA de código aberto do OpenAI em seus primeiros dias, a empresa geralmente favorece uma abordagem proprietária de desenvolvimento de código fechado. A última estratégia ajudou o OpenAI a criar um grande negócio que vende acesso aos seus modelos de IA por meio de uma API para empresas e desenvolvedores. No entanto, o CEO Sam Altman disse em janeiro que acredita que o OpenAI está “do lado errado da história” quando se trata de fornecer suas tecnologias. A empresa hoje enfrenta uma pressão crescente dos laboratórios chineses de IA – incluindo Deepseek, Qwen do Alibaba e Moonshot AI – que desenvolveram vários dos modelos abertos mais capazes e populares do mundo. (Enquanto a Meta anteriormente dominava o espaço aberto da IA, os modelos de IA da LLAMA da empresa ficaram para trás no ano passado.) Em julho, o governo Trump também nos instigou os desenvolvedores de IA a abrir mais tecnologia para promover a adoção global de IA alinhada com valores americanos. Evento do TechCrunch São Francisco | 27-29 de outubro de 2025 Com o lançamento do GPT-Oss, o Openai espera curry favor os desenvolvedores e o governo Trump, ambos, os que assistiram aos laboratórios de IA chineses se destacarem no espaço de código aberto. “Voltando a quando começamos em 2015, a missão do Openai é garantir a AGI que beneficia toda a humanidade”, disse Sam Altman, CEO da Openai, em comunicado compartilhado com a TechCrunch. “Para esse fim, estamos entusiasmados com o fato de o mundo estar construindo em uma pilha de IA aberta criada nos Estados Unidos, com base em valores democráticos, disponível gratuitamente para todos e para um grande benefício”. (Foto de Tomohiro Ohsumi / Getty Images) Créditos de imagem: Tomohiro Ohsumi / Getty Images Como os modelos executaram o OpenAI visavam tornar seu modelo aberto um líder entre outros modelos de IA de peso aberto, e a empresa afirma ter feito exatamente isso. Nas forças de código (com ferramentas), um teste de codificação competitivo, GPT-OSS-120B e GPT-20B Score 2622 e 2516, respectivamente, superaram o R1 de Deepseek enquanto tiveram desempenho O3 e O4-mini. O desempenho do modelo aberto do OpenAI nas forças de código (Crédito: OpenAI). No último exame da humanidade, um teste desafiador de perguntas de origem da multidão em uma variedade de assuntos (com ferramentas), GPT-OSS-120B e GPT-20B, pontuação de 19% e 17,3%, respectivamente. Da mesma forma, isso tem um desempenho abaixo do O3, mas supera os principais modelos abertos de Deepseek e Qwen. O desempenho do modelo aberto do OpenAI no HLE (Crédito: OpenAI). Notavelmente, os modelos abertos do OpenAI alucinam significativamente mais do que seus mais recentes modelos de raciocínio de IA, O3 e O4-mini. As alucinações estão ficando mais graves nos mais recentes modelos de raciocínio da IA da OpenAI, e a empresa disse anteriormente que não entende bem o porquê. Em um white paper, o Openai diz que isso é esperado, pois modelos menores têm menos conhecimento mundial do que modelos de fronteira maiores e tendem a alucinar mais “. O OpenAI descobriu que o GPT-OSS-120B e o GPT-20B alucinados em resposta a 49% e 53% das perguntas sobre o Pessoqa, o benchmark interno da empresa para medir a precisão do conhecimento de um modelo sobre as pessoas. Isso é mais que o triplo da taxa de alucinação do modelo O1 da OpenAI, que obteve 16%e superior ao seu modelo O4-mini, que obteve 36%. Treinando os novos modelos OpenAI diz que seus modelos abertos foram treinados com processos semelhantes aos seus modelos proprietários. A empresa diz que cada modelo aberto aproveita a mistura de especialistas (MOE) para tocar em menos parâmetros para qualquer pergunta, tornando-a executada com mais eficiência. Para o GPT-OSS-120B, que possui 117 bilhões de parâmetros totais, o OpenAI diz que o modelo ativa apenas 5,1 bilhões de parâmetros por token. A empresa também diz que seu modelo aberto foi treinado usando o aprendizado de reforço de alta computação (RL)-um processo pós-treinamento para ensinar modelos de IA diretamente em ambientes simulados usando grandes aglomerados de GPUs da NVIDIA. Isso também foi usado para treinar a série O dos modelos da OpenAI, e os modelos abertos têm um processo de cadeia de pensamento semelhante, no qual eles levam tempo adicional e recursos computacionais para trabalhar com suas respostas. Como resultado do processo pós-treinamento, o OpenAI diz que seus modelos de IA abertos se destacam em agentes de IA de alimentação e são capazes de chamar ferramentas como Pesquisa da Web ou execução do código Python como parte de seu processo de cadeia de pensamentos. No entanto, o OpenAI diz que seus modelos abertos são somente texto, o que significa que eles não poderão processar ou gerar imagens e áudio como os outros modelos da empresa. O OpenAI está lançando o GPT-OSS-120B e o GPT-20B sob a licença Apache 2.0, que geralmente é considerada uma das mais permissivas. Esta licença permitirá que as empresas monetizem os modelos abertos do OpenAI sem ter que pagar ou obter permissão da empresa. No entanto, diferentemente das ofertas de código aberto da AI Labs, como o AI2, o OpenAI diz que não será lançado os dados de treinamento usados para criar seus modelos abertos. Essa decisão não é surpreendente, uma vez que vários processos ativos contra provedores de modelos de IA, incluindo o OpenAI, alegaram que essas empresas treinaram inadequadamente seus modelos de IA em obras protegidas por direitos autorais. O OpenAI atrasou o lançamento de seus modelos abertos várias vezes nos últimos meses, parcialmente para abordar as preocupações de segurança. Além das políticas de segurança típicas da empresa, o Openai diz em um white paper que também investigou se os maus atores poderiam ajustar seus modelos GPT-ROSS para serem mais úteis em ataques cibernéticos ou na criação de armas biológicas ou químicas. Após testar os avaliadores do OpenAi e de terceiros, a empresa diz que o GPT-OSS pode aumentar marginalmente as capacidades biológicas. No entanto, não encontrou evidências de que esses modelos abertos poderiam atingir seu “limite de alta capacidade” para o perigo nesses domínios, mesmo após o ajuste fino. Embora o modelo de Openai pareça estar no estado da arte entre os modelos abertos, os desenvolvedores estão aguardando ansiosamente o lançamento do SuperIngelim do DeepSeek, seu próximo modelo de raciocínio de IA, bem como um novo modelo aberto da Meta Novo, do METAGILDELL,

Fonte

Publicar comentário

Você pode ter perdido