MASSIVO O ano dos LLMs Locais começa oficialmente com o GLM-4.7-Flash da Zhipu AI > 30B-A3B MoE > construído para GPUs de consumo > executável a partir do seu porão > o lançamento mais forte da classe 30B que já vimos Este é O MELHOR <=70B que já executei localmente, a propósito Arquitetura > Atenção MLA estilo DeepSeek > roteamento MoE slim > 30B de parâmetros totais, ~4B ativos > 64 especialistas no total, 5 ativos (incl. compartilhados) Profundidade e intenção > aproximadamente da classe GLM-4.5-Air > mas ajustado mais para localidade Benchmarks SWE-bench Verificado > GLM-4.7-Flash: 59.2 > Qwen3-30B-A3B: 22.0 > GPT-OSS-20B: 34.0 > Nemotron-3-Nano-30B-A3B: 38.8 > não é o mesmo universo...