本研究では、過剰パラメータ化された深層ニューラルネットワークの回帰設定において、Levenberg-Marquardtダンピングとミニバッチサンプリングを用いた確率的ガウス-ニュートン(SGN)法を分析しています。理論的貢献は二つあり、まずパラメータ空間における可変メトリクス分析を通じて、バッチサイズやネットワークの幅、深さに明示的に依存する有限時間収束境界を確立しました。次に、過剰パラメータ化された条件下でのSGNのための非漸近的な一般化境界を導出し、曲率、バッチサイズ、過剰パラメータ化が一般化性能に与える影響を特徴づけます。これにより、SGNのための有利な一般化領域が特定され、最適化経路に沿ったガウス-ニュートン行列の最小固有値が大きい場合、より厳密な安定性境界が得られることが示されました。