本論文では、活性化関数を欠く深い線形ニューラルネットワークに関連する勾配流方程式のダイナミクスと損失ランドスケープの理解の進展を調査しています。特に、最適化のステップサイズが0に向かうときの勾配降下トレーニングのダイナミクスについて扱っています。勾配流方程式は隣接行列に基づいて formulされ、収束する行列常微分方程式のクラスを形成します。損失ランドスケープは無限のグローバル最小値と鞍点が特徴で、局所的な最小値や最大値は存在しません。また、損失関数は正半定義のリヤプノフ関数であり、レベル集合は無限の不変集合を持ちます。隣接行列の表現により、損失関数の臨界値を一度だけ表す商空間構造が強調され、鞍点における安定および不安定部分多様体を特定しやすくしています。