Outro modelo open source SOTA 👍 Com 355B parâmetros (32B MoE ativos), é um pouco menor do que alguns dos modelos de ~1T que vimos. Até onde sei, eles não dizem qual hardware foi usado para treinar este modelo, mas usaram 23T de tokens de treinamento. Se entendi corretamente, tanto a Alibaba quanto a Tencent são investidores em uma startup em Pequim.
Z.ai
Z.ai11/08/2025
Apresentando o relatório técnico GLM-4.5!👇 Este trabalho demonstra como desenvolvemos modelos que se destacam em raciocínio, codificação e tarefas agentivas através de um paradigma de treinamento único e em múltiplas etapas. As principais inovações incluem iteração de modelos especialistas com auto-destilação para unificar capacidades, um modo de raciocínio híbrido para resolução dinâmica de problemas e um currículo de aprendizado por reforço baseado em dificuldade.
7K