arXiv cs.AI

医療AIアーキテクチャにおけるデータポイズニング脆弱性:セキュリティ脅威分析

Data Poisoning Vulnerabilities Across Healthcare AI Architectures: A Security Threat Analysis

http://arxiv.org/abs/2511.11020v1


本記事では、医療AIシステムが直面するデータポイズニングの脆弱性について分析されています。8つの攻撃シナリオが検討され、攻撃は主に4つのカテゴリーに分類されました:畳み込みニューラルネットワークや大規模言語モデル、強化学習エージェントへのアーキテクチャ攻撃、フェデレーテッドラーニングや医療文書システムを悪用したインフラ攻撃、臓器移植や危機時のトリアージに関わる重要資源配分攻撃、 商業基盤モデルを狙ったサプライチェーン攻撃です。研究により、攻撃者はわずか100-500サンプルで医療AIを妨害でき、データセットの規模に関わらず成功率は60%を超えることが示されました。医療インフラの分散性が、攻撃者に多くの侵入経路を提供しており、HIPPAAやGDPRなどのプライバシー法が検出分析を制限することで攻撃者を守ってしまう可能性も指摘されています。記事では、防御手段として、敵対的テストの義務化やプライバシーを考慮したセキュリティ機構の導入が提案され、解釈可能なAIシステムの重要性も強調されています。