MASYWNE Rok lokalnych LLM-ów oficjalnie zaczyna się od GLM-4.7-Flash od Zhipu AI > 30B-A3B MoE > zbudowany dla konsumenckich GPU > uruchamialny z twojej piwnicy > najsilniejsze wydanie klasy 30B, jakie kiedykolwiek widzieliśmy To jest NAJLEPSZE <=70B które kiedykolwiek uruchamiałem lokalnie, BTW Architektura > uwaga MLA w stylu DeepSeek > smukłe routowanie MoE > 30B całkowitych parametrów, ~4B aktywnych > 64 ekspertów łącznie, 5 aktywnych (w tym współdzielone) Głębokość i intencja > mniej więcej klasa GLM-4.5-Air > ale dostrojona mocniej pod kątem lokalności Benchmarki Zweryfikowane przez SWE-bench > GLM-4.7-Flash: 59.2 > Qwen3-30B-A3B: 22.0 > GPT-OSS-20B: 34.0 > Nemotron-3-Nano-30B-A3B: 38.8 > to nie ta sama rzeczywistość...