arXiv cs.AI

アライメントが失敗するとき:ビジョン・言語・アクションモデルに対するマルチモーダル敵攻撃

When Alignment Fails: Multimodal Adversarial Attacks on Vision-Language-Action Models

http://arxiv.org/abs/2511.16203v1


ビジョン・言語・アクションモデル(VLA)は、ロボットが多様な情報を統合的に理解し、認知・推論・行動する能力を示していますが、現実的な条件下での敵攻撃に対する堅牢性はほとんど研究されていません。本研究では、VLAモデルのマルチモーダルな敵ロバスト性に関する包括的なスタディであるVLA-Foolを提案し、テキストの摂動、視覚的摂動、およびクロスモーダルのミスアライメント攻撃を統合して評価しています。実験では、大きな行動の偏差がわずかなマルチモーダルの摂動によって引き起こされることが示され、これによりマルチモーダルアライメントの脆弱性が明らかになりました。この結果は、VLAモデルの実用化における重要な課題を浮き彫りにしています。