本論文では、マルチモーダル大規模言語モデル(MLLM)の推論過程が不透明であることに着目し、一つのモダリティが他のモダリティを妨害する「モダリティサボタージュ」について考察しています。この現象は、高い信頼性を持つ単一モダリティの誤りが他の証拠を覆し、融合された結果を誤導する場合です。著者らは、各モダリティをエージェントとして扱う軽量な評価レイヤーを提案し、候補ラベルと自己評価を用いて監査を行うメカニズムを開発しました。この診断レイヤーを用いたマルチモーダルの感情認識の事例研究では、データセットのアーティファクトやモデルの限界に由来する失敗のメカニズムが明らかになりました。全体として、著者らのフレームワークはマルチモーダル推論の診断を支援し、融合ダイナミクスの原則的な監査を可能にしています。