本稿では、マルチモーダル大規模言語モデル(MLLM)がフィッシング検出において直面するセキュリティの課題を議論します。特に学術環境においては、研究背景や学術的なコラボレーション、個人情報を悪用したダイナミックで多言語の攻撃が増加しており、学術機関や研究者は高価値のターゲットとなっています。これまでのセキュリティベンチマークは、特に学術的な背景情報を考慮しないデータセットに依存しており、進化する攻撃パターンや人に特有の脆弱性要因を捉えるには不十分でした。この問題に対処するため、著者はAdapT-Benchというフレームワークを提案し、学術設定におけるダイナミックなフィッシング攻撃に対するMLLMの防御能力を体系的に評価するベンチマークスイートを構築しました。