MASSIEF Het jaar van lokale LLM's begint officieel met GLM-4.7-Flash van Zhipu AI > 30B-A3B MoE > gebouwd voor consumenten-GPU's > uitvoerbaar vanuit je kelder > sterkste 30B-class release die we ooit hebben gezien Dit is DE BESTE <=70B die ik ooit lokaal heb uitgevoerd, Trouwens Architectuur > DeepSeek-stijl MLA aandacht > slanke MoE routering > 30B totale parameters, ~4B actief > 64 experts totaal, 5 actief (incl. gedeeld) Diepte & intentie > ruwweg GLM-4.5-Air klasse > maar harder afgestemd op localiteit Benchmarks SWE-bench Geverifieerd > GLM-4.7-Flash: 59.2 > Qwen3-30B-A3B: 22.0 > GPT-OSS-20B: 34.0 > Nemotron-3-Nano-30B-A3B: 38.8 > niet dezelfde universum...