要約:NMOEリポジトリとアーキテクチャに関する要約: 私は1つの8台B200ノードで実際のnvfp4ネイティブ16Bパラメータモデルのトレーニングができ、128台未満のGPUでフルトレーニング(~7Tトークン)を30日(データパイプライン含む)で行えます 見積もりで考えると、理論的には1台のGB300 NVL72でDeepseek-V3のフルトレーニングランを90日以内に行える可能性があります