大規模 本地 LLM 的年份正式開始 由 Zhipu AI 推出的 GLM-4.7-Flash > 30B-A3B MoE > 為消費者 GPU 構建 > 可在你的地下室運行 > 我們見過的最強 30B 級發布 這是我在本地運行過的最佳 <=70B 架構 > DeepSeek 風格的 MLA 注意力 > 瘦 MoE 路由 > 總計 30B 參數,約 4B 活躍 > 總共 64 位專家,5 位活躍(包括共享) 深度與意圖 > 大致為 GLM-4.5-Air 級別 > 但為本地性進行了更強的調整 基準測試 SWE-bench 驗證 > GLM-4.7-Flash: 59.2 > Qwen3-30B-A3B: 22.0 > GPT-OSS-20B: 34.0 > Nemotron-3-Nano-30B-A3B: 38.8 > 不是同一個宇宙 ...