arXiv cs.AI

音声・オーディオの合成攻撃に対するマルチモーダルLLMとSALMONN-Guardによるその緩和策

Speech-Audio Compositional Attacks on Multimodal LLMs and Their Mitigation with SALMONN-Guard

http://arxiv.org/abs/2511.10222v1


この論文では、音声と非音声オーディオの理解を可能にした大規模言語モデル(LLM)の進展を背景に、複雑な音声入力による新たな安全リスクが浮き彫りになったことを報告しています。特に、音声・オーディオの合成攻撃に対する評価手法としてSACRED-Benchを提案し、これにより攻撃の成功率が高いことが示されました。具体的には、音声の重複や多話者対話、音声・オーディオの混合、さまざまな発話形式を駆使して攻撃が行われます。Gemini 2.5 Proという最先端のLLMが66%の攻撃成功率を示す一方で、SALMONN-Guardという新しい防御策を導入することで、成功率を20%に低下させることができました。この研究は、音声を意識した防御策の必要性を強調しています。