ENORME O ano dos LLMs Locais começa oficialmente com GLM-4.7-Flash da Zhipu AI > 30B-A3B MoE > construído para GPUs de consumo > funcionável no seu porão > lançamento mais forte da classe 30B que já vimos Esse é O MELHOR <=70B Já corri localmente, aliás Arquitetura > Atenção MLA no estilo DeepSeek > roteamento MoE fino > 30B parámetros totais, ~4B ativos > 64 especialistas no total, 5 ativos (incluindo compartilhados) Profundidade e intenção > aproximadamente da classe GLM-4.5-Air > mas ajustado mais para a localidade Referências SWE-bench Verificado > GLM-4.7-Flash: 59.2 > Qwen3-30B-A3B: 22.0 > GPT-OSS-20B: 34.0 > Nemotron-3-Nano-30B-A3B: 38,8 > não é o mesmo universo...