MASSIVO L'anno dei LLM locali inizia ufficialmente con GLM-4.7-Flash di Zhipu AI > 30B-A3B MoE > costruito per GPU consumer > eseguibile dal tuo seminterrato > il rilascio più potente della classe 30B che abbiamo mai visto Questo è IL MIGLIORE <=70B che abbia mai eseguito localmente, tra l'altro Architettura > attenzione MLA in stile DeepSeek > routing MoE snello > 30B parametri totali, ~4B attivi > 64 esperti totali, 5 attivi (inclusi quelli condivisi) Profondità e intento > circa la classe GLM-4.5-Air > ma sintonizzato più duramente per la località Benchmark SWE-bench Verificato > GLM-4.7-Flash: 59.2 > Qwen3-30B-A3B: 22.0 > GPT-OSS-20B: 34.0 > Nemotron-3-Nano-30B-A3B: 38.8 > non è lo stesso universo...