この記事では、神経ネットワークが逐次的なタスクを独立して処理する際の問題を克服する新しい継続学習法を提案しています。この方法は、全タスクに共通の特徴を学ぶメモリと、各サンプルに特有の識別的特徴を学ぶメモリの二つから構成されています。両方のメモリは微分可能で、ネットワークは各サンプルの潜在表現を自律的に学習できます。メモリ調整モジュールは、重要なスロットを適応的に剪定し、新しい概念を収容するために最小限の容量を拡張します。さらに、直交正則化によって保存されたメモリと新たに学習されたメモリの間に幾何学的な分離が保たれ、干渉を防ぎます。実験結果は、提案手法がクラスの増加に対する学習法の14の最先端手法よりも優れており、CIFAR-10、CIFAR-100、Tiny-ImageNetにおいて高い精度を達成したことを示しています。