arXiv cs.LG

FarSkip-Collective: 専門家モデルにおけるブロッキング通信の解除

FarSkip-Collective: Unhobbling Blocking Communication in Mixture of Experts Models

http://arxiv.org/abs/2511.11505v1


本記事では、専門家モデル(MoE)が分散環境で効率的に動作する際の主要な障害であるブロッキング通信の解決策として、FarSkip-Collectiveが提案されています。このアプローチは、モデルのアーキテクチャを改良し、計算と通信を重ねることを可能にするもので、特に大規模な最先端モデルにおいてもその能力を維持できるかが焦点となります。実際に、16Bから109Bのパラメータを持つ複数の最先端モデルを変換し、元のオープンソースリリースと同等の精度を達成することを確認しています。例えば、Llama 4 Scout(109B)の変換結果は、指導調整されたリリースに対して平均1%以内の精度で実現されています。また、FarSkip-Collectiveの利益は、通信と計算の重複を明示的に最適化した実装によって得られ、トレーニングと推論の両方を加速する効果も示されています。