この記事では、深層学習モデルの意思決定を説明するための新しい手法「FaCT」を提案しています。従来の方法がモデルの本質を忠実に反映していない問題に対処し、概念ベースの説明の信頼性を強調しています。提案された方法では、異なるクラスに共通する概念を用い、モデル内でのメカニズムを明確に示します。また、C$^2$-Scoreという新しい概念一貫性メトリックを用いて、これらの説明の評価が可能です。実験の結果、提案手法は以前の研究に比べて一貫性が高く、ユーザーにとって解釈しやすい概念を提供しながら、ImageNetの性能も競争力があります。