ENORME El año de los LLMs locales comienza oficialmente con GLM-4.7-Flash por Zhipu AI > 30B-A3B MoE > construido para GPUs de consumo > funcionable desde tu sótano > lanzamiento de clase 30B más potente que hemos visto jamás Este es EL MEJOR <=70B Por cierto, he corrido localmente Arquitectura > Atención MLA al estilo DeepSeek > enrutamiento MoE delgado > 30 millones de parámetros totales, ~4 mil millones activos > 64 expertos en total, 5 activos (incluyendo compartidos) Profundidad e intención > aproximadamente clase GLM-4.5-Air > pero se ajustó más fuerte a la localidad Referencias SWE-bench verificado > GLM-4.7-Flash: 59.2 > Qwen3-30B-A3B: 22.0 > GPT-OSS-20B: 34.0 > Nemotron-3-Nano-30B-A3B: 38,8 > no es el mismo universo...