arXiv cs.AI

AUVIC:マルチモーダル大規模言語モデルの視覚概念に対する逆向き学習

AUVIC: Adversarial Unlearning of Visual Concepts for Multi-modal Large Language Models

http://arxiv.org/abs/2511.11299v1


本論文では、マルチモーダル大規模言語モデル(MLLM)が、大量のデータセットで最適化されると優れた性能を発揮する一方で、プライバシーや著作権に関わるデータ削除の必要性が高まっていることを指摘しています。特に、視覚コンセプトの逆向き学習は従来のテキストに比べてあまり研究されていません。そのため本研究では、AUVICという視覚概念の逆向き学習フレームワークを提案し、敵対的摂動を利用して特定の視覚概念を正確に忘却させる方法を示します。この手法により、モデルのパフォーマンスを損なうことなく、ターゲットとなる視覚概念の消去が可能になります。また、VCUBenchと呼ばれるベンチマークを構築し、グループコンテキストにおける視覚概念の逆向き学習を評価しました。実験結果は、AUVICがターゲット忘却率で最先端の成果を上げつつ、非ターゲット概念に対する性能低下を最小限に抑えたことを示しています。