本稿では、敵対的学習のための統一ビレベルモデルを提案しています。機械学習と人工知能の急速な発展により、敵対的学習への関心は高まっていますが、従来のモデルの複雑な構造のために、敵対的攻撃のメカニズムは十分に解釈されていません。本研究では、クラスタリングモデルにおける敵対的攻撃をデータの摂動観点から考察し、摂動が小さい場合にはモデルが頑健であり、大きい場合にはクラスタリング結果が変わり攻撃につながることが明らかになりました。さらに、クラスタリングモデルに対する攻撃の影響を測定するために、提案されたビレベルモデル内で使用可能な$ ext{δ}$-measureの明確性を分析しています。