この論文は、様々な機械学習(ML)モデルにおける説明問題のパラメータ化された複雑性についての理論的な調査を行っています。従来のブラックボックス的な理解とは異なり、透明性のある内部メカニズムを持つモデルに焦点を当てています。説明問題は主に「帰納的」と「対比的」に分かれ、局所的およびグローバルなバリエーションが考慮されています。対象となるMLモデルには、決定木、決定セット、決定リスト、ブール回路、これらのアンサンブルが含まれ、それぞれ独自の説明課題を提供します。この研究は、説明可能なAI(XAI)における説明生成の複雑性を基礎的に理解するための重要なギャップを埋めており、AIシステムの透明性と説明責任の重要性に関する広範な議論に貢献しています。