arXiv cs.LG

高次元単層ネットワークにおける確率的勾配降下法の極限定理

Limit Theorems for Stochastic Gradient Descent in High-Dimensional Single-Layer Networks

http://arxiv.org/abs/2511.02258v1


この記事では、高次元の単層ネットワークにおけるオンライン確率的勾配降下法(SGD)の高次元スケーリングの極限について研究しています。SaadとSollaの先駆的な研究を基に、SGDの決定論的スケーリング限界を解析し、ステップサイズの臨界スケールに焦点を当てています。この臨界スケール未満では、有効な動力学は弾道的(ODE)限界によって支配されますが、臨界スケールで新たな修正項が出現し、相図が変化します。この領域では、固定点の近くで、効果的な動力学の対応する拡散的(SDE)限界が特定の条件下でオルンシュタイン・ウーレンベック過程に簡約されます。これらの結果は、情報指数がサンプルの複雑さを制御する方法を強調し、高次元の学習動態における確率的な変動を捉える際の決定論的スケーリング限界の限界を示しています。