arXiv cs.LG

CID: 反事実分布を通じて特徴の重要性を測定する

CID: Measuring Feature Importance Through Counterfactual Distributions

http://arxiv.org/abs/2511.15371v1


この記事では、機械学習における個々の特徴の重要性を評価するための新たな手法「Counterfactual Importance Distribution(CID)」を提案しています。従来の手法では、比較のための確定的な基準が不足しており、新たな測定基準の必要性が指摘されています。CIDでは、ポジティブおよびネガティブな反事実の2セットを生成し、それらの分布をカーネル密度推定を用いてモデル化します。特徴の重要性は、分布的な類似度測定に基づいてランク付けされ、厳密な数学的枠組みに基づいた計量として機能します。この手法は既存のローカル特徴重要性説明手法と比較し、従来の方法に対して補完的な視点を提供するとともに、具体的な説明の忠実性を高める効果が認められています。これは、モデル分析において重要なツールとなる可能性を示唆しています。