Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Otro modelo de código abierto SOTA 👍
Con 355B de parámetros (32B de MoE activos) es un poco más pequeño que algunos de los modelos de ~1T que hemos visto.
Hasta donde sé, no dicen qué hardware se utilizó para entrenar este modelo, pero usaron 23T de tokens de entrenamiento.
Si no entiendo mal, tanto Alibaba como Tencent son inversores en esta startup en Pekín.

11 ago 2025
¡Presentando el informe técnico GLM-4.5!👇
Este trabajo demuestra cómo desarrollamos modelos que sobresalen en razonamiento, codificación y tareas agenciales a través de un paradigma de entrenamiento único y en múltiples etapas.
Las innovaciones clave incluyen la iteración de modelos expertos con auto-destilación para unificar capacidades, un modo de razonamiento híbrido para la resolución dinámica de problemas y un currículo de aprendizaje por refuerzo basado en la dificultad.

7K
Parte superior
Clasificación
Favoritos