KHỔNG LỒ Năm của các LLM Địa phương chính thức bắt đầu với GLM-4.7-Flash của Zhipu AI > 30B-A3B MoE > được xây dựng cho GPU tiêu dùng > có thể chạy từ tầng hầm của bạn > phát hành mạnh nhất trong phân khúc 30B mà chúng tôi từng thấy Đây là TỐT NHẤT <=70B Tôi từng chạy cục bộ BTW Kiến trúc > Chú ý MLA kiểu DeepSeek > định tuyến MoE mỏng > tổng cộng 30B tham số, ~4B hoạt động > tổng cộng 64 chuyên gia, 5 hoạt động (bao gồm cả chia sẻ) Độ sâu & ý định > khoảng lớp GLM-4.5-Air > nhưng được tinh chỉnh mạnh hơn cho tính địa phương Thử nghiệm SWE-bench Đã xác minh > GLM-4.7-Flash: 59.2 > Qwen3-30B-A3B: 22.0 > GPT-OSS-20B: 34.0 > Nemotron-3-Nano-30B-A3B: 38.8 > không cùng một vũ trụ...