MASSIV Året for lokale LLM-er starter offisielt med GLM-4.7-Flash av Zhipu AI > 30B-A3B MoE > laget for forbruker-GPUer > kjørbar fra kjelleren din > sterkeste 30B-klasse utgivelsen vi noen gang har sett Dette er DEN BESTE <=70B Jeg har noen gang løpt lokalt, forresten Arkitektur > DeepSeek-aktig MLA-oppmerksomhet > slank MoE-ruting > totalt 30 milliarder parametere, ~4 milliarder aktive > totalt 64 eksperter, 5 aktive (inkl. delte) Dybde og intensjon > omtrent GLM-4.5-Air-klassen > men justert hardere for lokalitet Referansepunkter SWE-benk Verifisert > GLM-4.7-Flash: 59.2 > Qwen3-30B-A3B: 22,0 > GPT-OSS-20B: 34.0 > Nemotron-3-Nano-30B-A3B: 38,8 > ikke det samme universet...