この研究は、データフリーの継続学習(CL)におけるモデル逆転の方法を提案しています。継続学習は、新しいタスクを順次学習しながら、以前のタスクのパフォーマンスを維持することを目指していますが、データを保持したり再利用したりすることがプライバシーやセキュリティの制約により不可能な場合があります。この研究では、トレainedモデルから合成データを生成するモデル逆転を利用し、サンプルを保持せずに再生を可能にします。しかし、モデル逆転には、合成データと実データのドリフトや、高コストになる計算などの課題があります。これらの問題を解決するために、Per-layer Model Inversion(PMI)を導入し、効率を向上させることを目指しています。このアプローチは、新しいクラスの継続学習を可能にし、強力な効果を発揮します。