本研究は、Shapley追加説明(SHAP)が決定木のような単純なモデルに対して多項式時間で計算できる一方で、ニューラルネットワークのような表現力の高いブラックボックスモデルに対してはNP困難になる問題を分析します。テンソルネットワーク(TN)という、より広範で表現力豊かなモデルクラスに対するSHAP説明の計算を行うための一般的な枠組みを導入し、特にテンソルトレイン(TT)構造に制約した場合、並列計算を用いることでポリログ時間でのSHAP計算が可能であることを示します。この結果は、決定木や線形モデルなどの他の人気のある機械学習モデルにも一般化でき、これらのモデルファミリーに対して以前の報告よりも厳しい計算結果を結論づけます。また、バイナリ化されたニューラルネットワークをテンソルネットワーク表現に還元することで、ネットワークの幅が固定されている場合にSHAP計算が効率的に扱えることを実証し、幅が計算のボトルネックとなることを明らかにしています。