深層神経ネットワーク(DNN)は非常に高い性能を達成する一方、過学習の問題に悩まされています。本記事では、Momentum-Adaptive Gradient Dropout(MAGDrop)という新しい正則化手法を提案します。MAGDropは、活性化に対するドロップアウト率を現在の勾配と蓄積されたモメンタムに基づいて動的に調整することにより、非凸最適化空間における安定性を向上させます。その効果を理論的に裏付けるため、MAGDropの適応的特性を考慮したPAC-Bayes一般化境界を導出し、従来のアプローチに比べて20%鋭い境界を実現しました。実験的には、MAGDropはMNIST(99.52%)とCIFAR-10(90.63%)でのテスト精度において、標準的なドロップアウトや適応勾配正則化を1–2%上回る成果を示しました。本研究は理論的洞察と実践的進展を結びつけ、高ステークスアプリケーションに適したDNNの一般化を強化するための堅牢なフレームワークを提供します。