機械学習モデルは、分子グラフやソーシャルネットワークといったグラフ構造のデータに基づいて高精度な予測を行いますが、予測の背後にある理由を明らかにすることが難しい場合があります。反実験的説明は、モデルの予測が変わる最も近い代替シナリオを探ることでこの問題に対処します。これまで、反実験的説明は表形式データやコンピュータビジョンの領域で広く研究されてきましたが、グラフ分野にはあまり探求されていませんでした。グラフの反実験を構築することは、グラフが離散的かつ非ユークリッド的なオブジェクトであるため、本質的に困難です。この研究では、離散拡散モデルと分類器なしのガイダンスを組み合わせた新しいフレームワークである「グラフ拡散反実験的説明」を提案し、実証的に、連続的な特性だけでなく、離散的な分類目標に対しても、構造的に最小限の違いを持つ反実験を確実に生成できることを示しています。