アンサンブル学習は、複数のモデルを組み合わせることで性能向上と不確実性のロバストな測定を可能にしますが、その計算コストとメモリ消費が大きな課題となります。本研究では、アンサンブルの予測分布を単一モデルに蒸留する新しい手法「Ensemble Distribution Distillation(EnD²)」を提案します。これは、アンサンブルの平均予測だけでなく、その多様性の情報も保持することができ、不確実性の推定に役立ちます。提案手法はPrior Networksに基づいており、他の一般的な深層学習モデルや従来のアンサンブル蒸留と比較して、誤分類や分布外入力の検出タスクにおいて優れた性能を示しています。この成果は、さまざまなデータセットでの性能検証を通じて確認されました。