巨大的 本地 LLM 的年份正式开始 由 Zhipu AI 发布的 GLM-4.7-Flash > 30B-A3B MoE > 为消费级 GPU 构建 > 可在你的地下室运行 > 我们见过的最强 30B 级发布 这是我在本地运行过的最佳 <=70B 架构 > DeepSeek 风格的 MLA 注意力 > 精简的 MoE 路由 > 总参数 30B,约 4B 活跃 > 总共 64 个专家,5 个活跃(包括共享) 深度与意图 > 大致为 GLM-4.5-Air 级别 > 但针对本地性进行了更严格的调优 基准测试 SWE-bench 验证 > GLM-4.7-Flash: 59.2 > Qwen3-30B-A3B: 22.0 > GPT-OSS-20B: 34.0 > Nemotron-3-Nano-30B-A3B: 38.8 > 不是同一个宇宙 ...