別のSOTAオープンソースモデル 👍 355B パラメータ (32B アクティブ MoE) では、これまで見てきたいくつかの ~1T モデルよりも少し小さいです。 AFAIK このモデルのトレーニングにどのようなハードウェアが使用されたかは明らかにされていませんが、23T トレーニング トークンを使用しました。 IIUCはアリババとテンセントの両方が投資家であり、北京のスタートアップです。
Z.ai
Z.ai8月11日 11:43
GLM-4.5テクニカルレポートを発表! 👇 この研究は、独自の多段階トレーニング パラダイムを通じて、推論、コーディング、エージェント タスクに優れたモデルをどのように開発したかを示しています。 主なイノベーションには、機能を統合するための自己蒸留によるエキスパート モデルの反復、動的な問題解決のためのハイブリッド推論モード、難易度ベースの強化学習カリキュラムなどがあります。
6.93K