本稿では、生成モデルの利用が広がる中、データポイズニングによる悪用の危険性について考察しています。従来のポイズニング攻撃は、生成されたデータの質を大幅に低下させるか、トレーニングプロセスを制御する必要があり、実用的な適用が難しいものでした。新たな手法として提案されている「連想的ポイズニング」では、トレーニングデータに微妙な変更を加え、生成物の特定の特徴ペア間の統計的関連を操作します。この攻撃は、生成されるデータの質を維持しつつ、関連性を生成または抑制するため、視覚的検出を回避することが可能です。提案された手法の理論的な有効性や隠密性を証明し、画像合成や自然言語処理などの生成システムがこの攻撃に脆弱であることを示しています。また、現在の防御策の限界を検討し、新たな対策を提案しています。