本論文では、プロトタイプベースのネットワークにおける説明責任の重要性と、それがしばしば誤解を招く可能性を指摘しています。これらのネットワークは、入力データとトレーニングサンプルのプロトタイプとの類似性に基づいて予測を行いますが、同じ説明で異なる予測がなされることがあるため、安全-criticalなコンテクストではその有用性が損なわれる恐れがあります。著者らは、形式的説明可能なAI(FXAI)から着想を得た帰納的潜在説明(ALEs)を提案し、これはインスタンスの潜在的な表現に基づき予測を導くための十分条件を表現するための形式主義です。このアプローチは、ケースベースの推論モデルの内在的な解釈可能性と、形式的XAIが提供する保証を結び付けており、解法なしでスケーラブルなアルゴリズムを提案します。また、異なるデータセットにおけるその実現可能性を示し、標準的および詳細分類に対応しています。