大規模分散機械学習において、通信が主要なボトルネックとされており、勾配のスパース化がこの課題を解決する有望な戦略として注目されています。しかし、既存の勾配圧縮器にはいくつかの限界があります。Rand-Kは構造情報を失い実用性が低く、Top-Kは情報を保持するものの収束特性を失い、高コストのAll-Gather操作を必要とします。本論文では、勾配の軽量スケッチを用いてノード間のスパースパターンを調整する全還元互換のTop-K圧縮器ARC-Top-Kを提案します。この手法は、インデックスを使用せずに全還元を可能にし、全体的に重要な情報を保持します。ARC-Top-Kは収束性が証明されており、モメンタムエラーフィードバックと組み合わせることで従来の方法よりも線形スピードアップと急速な収束率を実現します。実験的には、ARC-Top-KはTop-Kの精度を維持しつつ、学習時間を最大60.7%削減できる効率的でスケーラブルな解決策を提供します。