本論文では、マルチタスク学習(MTL)におけるタスク不均衡の問題を解決するための新しい手法、NTKMTLを提案しています。MTLは、単一のモデルが複数のタスクを同時に学習し、タスク間の知識移転を活用して一般化能力を向上させる技術です。しかし、タスクの収束速度の不均衡は主要な課題となっており、その均衡を取ることは困難です。著者たちは、ニューラルタンジェントカーネル(NTK)理論を活用してMTLのトレーニングダイナミクスを分析し、拡張NTKマトリックスを導入し、スペクトル分析を用いて収束速度を調整することでタスク不均衡を軽減します。さらに、共通の表現による近似を活用したNTKMTL-SRを提案し、トレーニング効率を向上させつつ高いパフォーマンスを維持しています。実験結果は、提案手法が多くのベンチマークで最先端の性能を達成することを示しています。