在过去的两周里,MLX LM 添加了 7 种新的模型架构。 在这 7 种中,有 6 种是 MoE。 在这 6 种 MoE 中,有 3 种是混合 SSM / 注意力模型。 架构变化缓慢,然后突然发生。