この研究は、時間系列予測において大型モデルが直面する「スケーリングパラドックス」を探求しています。従来のアプローチでは、モデルの容量やデータの増加がパフォーマンスの改善をもたらすと考えられていますが、大型モデルは必ずしも優れた結果を出せないことが確認されました。実験により、重要な層はわずか一部であり、他の多くの層は冗長であり訓練の妨げとなることが「少層支配」として特定されました。この発見を基に、機能的に重要な層のみを自動的に特定し保持する実用的な方法が提案され、これによりパラメータの21%を保持するだけで精度が最大12%改善し、推論速度が2.7倍向上することが示されました。この手法は、さまざまなモデルで95%以上のタスクにおいて優れた精度を達成することが確認されています。