МАСШТАБНО Год локальных LLM официально начинается с GLM-4.7-Flash от Zhipu AI > 30B-A3B MoE > создан для потребительских GPU > запускается из вашего подвала > самый мощный релиз класса 30B, который мы когда-либо видели Это ЛУЧШИЙ <=70B который я когда-либо запускал локально, кстати Архитектура > Внимание MLA в стиле DeepSeek > тонкая маршрутизация MoE > всего 30B параметров, ~4B активных > всего 64 эксперта, 5 активных (включая общие) Глубина и намерение > примерно класс GLM-4.5-Air > но настроен более жестко для локальности Бенчмарки SWE-bench Проверено > GLM-4.7-Flash: 59.2 > Qwen3-30B-A3B: 22.0 > GPT-OSS-20B: 34.0 > Nemotron-3-Nano-30B-A3B: 38.8 > это не одна вселенная...