BESAR Tahun LLM Lokal resmi dimulai dengan GLM-4.7-Flash oleh Zhipu AI > 30B-A3B MoE > dibuat untuk GPU konsumen > dapat dijalankan dari ruang bawah tanah Anda > rilis kelas 30B terkuat yang pernah kami lihat Ini adalah YANG TERBAIK <=70B Saya pernah berlari secara lokal BTW Arsitektur > perhatian MLA gaya DeepSeek > perutean MoE yang ramping > 30B total param, ~4B aktif > total 64 ahli, 5 aktif (termasuk dibagikan) Kedalaman & maksud > kira-kira kelas GLM-4.5-Air > tetapi disetel lebih keras untuk lokalitas Tolok ukur SWE-bench Terverifikasi > GLM-4.7-Flash: 59.2 > Qwen3-30B-A3B: 22.0 > GPT-OSS-20B: 34.0 > Nemotron-3-Nano-30B-A3B: 38.8 > alam semesta yang sama...