大規模言語モデル(LLMs)は、優れた汎化能力を持っていますが、マルチタスク適応には課題があります。特に、知識の保持とタスク特化型の専門性のバランスを取ることが難しいです。従来のファインチューニング手法は、「壊滅的忘却」と大きなリソース消費の問題を抱えており、既存のパラメータ効率的な手法も複雑なマルチタスクのシナリオでは最適な性能を発揮しません。この問題を解決するために、筆者らは文脈的注意変調(CAM)という新しいメカニズムを提案します。CAMは、LLMsの自己注意モジュールの表現を動的に調整し、タスク特有の特徴を強化しながら一般的な知識を保持します。さらに、CAMはハイブリッド文脈的注意変調(HyCAM)フレームワークに統合され、共有されたフルパラメータのCAMモジュールと、軽量の専門化されたCAMモジュールを組み合わせて、適応的な知識融合のための動的ルーティング戦略を強化します。多様なタスクに対する広範な実験により、本アプローチが既存の手法に対して平均3.65%の性能向上を達成することを示しました。