arXiv cs.AI

ポリシー模倣の敵対的利用

Adversarial Exploitation of Policy Imitation

http://arxiv.org/abs/1906.01121v1


本論文では、ディープ強化学習(DRL)ポリシーにおけるセキュリティの機密性を標的とした攻撃の一類を調査しています。近年の研究では、教師あり機械学習モデル(分類器など)がモデル抽出攻撃に対して脆弱であることが確立されました。この攻撃は、攻撃者がモデルに対してラベルを反復的に問い合わせる緩やかに制限された能力を利用し、元のモデルの模倣を訓練するためのラベル付きデータセットの生成を可能にします。本研究では、模倣学習技術を利用してDRLエージェントに対するモデル抽出攻撃を行う可能性を示しました。さらに、これらの技術を利用したブラックボックス攻撃に対する概念実証攻撃を開発し、リスク軽減のための潜在的な解決策についても考察しています。