この研究は、機械学習における確率分布学習の課題に取り組むもので、特にKLダイバージェンスの対称化に焦点を当てています。従来の方法では、データ分布とパラメータ化された分布との間の統計的ダイバージェンスを最小化するアプローチが一般的ですが、前向きKLダイバージェンスの非対称性がターゲット分布の特性を捉えるのを妨げることがあります。本研究では、Jeffreysダイバージェンスを最小化する新しい手法を提案し、データにフィットさせるとともに、主要モデルのJeffreysダイバージェンスの最適化を支援するプロキシモデルを使用します。この共同トレーニングタスクは、モデルの優先順位を訓練中に調整するために制約付き最適化問題として定式化され、密度推定、画像生成、シミュレーションベースの推論などのタスクにおいて、正規化フローとエネルギーベースモデルの利点を組み合わせる方法を示しています。