InTActは、ニューラルネットワークが新しい知識を獲得しつつ、以前学習した情報を忘れないようにする継続的学習の手法です。最近のプロンプトベースの手法は、クラス増加設定での性能が高いものの、ドメインシフトに対して脆弱であり、入力分布が変わる際に特徴を忘れてしまう「表現の漂流」という問題があります。InTActは、以前のタスクに関連する活性化範囲を捉え、更新を制限することでネットワークの一貫性を保ちつつ、他の領域では柔軟な適応を可能にします。重要なニューロンの機能的役割を安定させるこのアプローチは、既存のプロンプトベースのフレームワークとも整合性があり、過去の知識が保持されたままで、安定性と可塑性のバランスを取ることに成功しました。実験の結果、InTActは表現の漂流を抑え、特にDomainNetやImageNet-Rなどのベンチマークで性能を向上させ、平均精度を最大8ポイント改善することが示されています。