深い平衡モデル(DEQs)は、重みが tied された無限に深い神経ネットワークを訓練するための強力なパラダイムとして近年注目を集めています。これらのモデルは、さまざまな現代の機械学習タスクで最先端の性能を達成していますが、DEQsの訓練における勾配降下の動力学を理論的に理解することは依然として活発な研究分野です。本研究では、線形モデルと単一指標モデルというシンプルな設定において、DEQsの勾配降下動力学を厳密に研究し、文献のいくつかのギャップを埋めました。具体的には、線形DEQsに関する保存法則を証明し、訓練中にパラメータが球面上に留まり続けることを示しました。この性質を利用して、全期間にわたって勾配流が良好に条件付けられることを示しました。さらに、適切な初期化および十分に小さなステップサイズの下で、勾配降下法が線形DEQsと深い平衡単一指標モデルのグローバル最小値に線形収束することを証明しました。理論的な発見は実験によって検証されました。