この論文では、敵対的事例が従来とは逆の方法で形成される新しいアプローチを提案しています。通常、敵対的事例は、データセットの例に対して微妙な変更を加え、モデルが異なる答えを出すように仕向けることで作成されますが、この研究では、元の例とは大きく異なるものの、同じ答えを導く事例を生成します。新たに提案されたアルゴリズムには、負の反復的高速勾配符号法(NI-FGSM)や負の反復的高速勾配法(NI-FGM)、それらのモメンタム版である負のモメンタム反復的高速勾配符号法(NMI-FGSM)および負のモメンタム反復的高速勾配法(NMI-FGM)が含まれます。これらの方法で構築された敵対的事例は、特定の状況で機械学習システムへの攻撃に利用される可能性があります。また、これらの敵対的事例は、データセットの近傍に限らず、サンプル空間全体に広がっていることも示されています。