ВЕЛИЧЕЗНИЙ Рік місцевих LLM офіційно розпочинається з GLM-4.7-Flash від Zhipu AI > 30B-A3B MoE > створений для споживчих GPU > можна керувати з підвалу > найсильніший реліз класу 30B, який ми коли-небудь бачили Це НАЙКРАЩЕ <=70B До речі, я коли-небудь бігав локально Архітектура > Увага MLA у стилі DeepSeek > вузьке маршрутизація MoE > 30B всього параметрів, ~4B активних > загалом 64 експерти, 5 активних (включаючи спільне) Глибина та намір > приблизно класу GLM-4.5-Air >, але налаштував більше на локальність Бенчмарки SWE-bench Підтверджено > GLM-4.7-Flash: 59.2 > Qwen3-30B-A3B: 22.0 > GPT-OSS-20B: 34.0 > Немотрон-3-Нано-30B-A3B: 38,8 > не той самий всесвіт...