本研究では、メタ学習における分布外一般化を情報理論の視点から検討しています。特に、(i) テスト環境がトレーニング環境と不一致である場合、(ii) トレーニング環境がテスト環境よりも広範である場合の二つのシナリオに焦点を当てています。前者は標準的な分布不一致設定を示し、後者は広範なトレーニングから狭いテストへのシナリオを反映しています。さらに、メタ強化学習における一般化問題を形式化し、対応する一般化境界を確立しました。最後に、勾配ベースのメタ強化学習アルゴリズムの一般化性能を分析しています。
arXiv cs.LG
An Information-Theoretic Analysis of Out-of-Distribution Generalization in Meta-Learning with Applications to Meta-RL
http://arxiv.org/abs/2510.23448v1
本研究では、メタ学習における分布外一般化を情報理論の視点から検討しています。特に、(i) テスト環境がトレーニング環境と不一致である場合、(ii) トレーニング環境がテスト環境よりも広範である場合の二つのシナリオに焦点を当てています。前者は標準的な分布不一致設定を示し、後者は広範なトレーニングから狭いテストへのシナリオを反映しています。さらに、メタ強化学習における一般化問題を形式化し、対応する一般化境界を確立しました。最後に、勾配ベースのメタ強化学習アルゴリズムの一般化性能を分析しています。