Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Outro modelo open source SOTA 👍
Com 355B parâmetros (32B MoE ativos), é um pouco menor do que alguns dos modelos de ~1T que vimos.
Até onde sei, eles não dizem qual hardware foi usado para treinar este modelo, mas usaram 23T de tokens de treinamento.
Se entendi corretamente, tanto a Alibaba quanto a Tencent são investidores em uma startup em Pequim.

11/08/2025
Apresentando o relatório técnico GLM-4.5!👇
Este trabalho demonstra como desenvolvemos modelos que se destacam em raciocínio, codificação e tarefas agentivas através de um paradigma de treinamento único e em múltiplas etapas.
As principais inovações incluem iteração de modelos especialistas com auto-destilação para unificar capacidades, um modo de raciocínio híbrido para resolução dinâmica de problemas e um currículo de aprendizado por reforço baseado em dificuldade.

7K
Top
Classificação
Favoritos