最近の研究では、ニューラルネットワークの圧縮が注目されており、特にコンピュータビジョンのアプリケーションでは、モデルの縮小がデプロイメント制約を克服するために重要です。プルーニングは、モデル構造(重み、ニューロン、レイヤーなど)のスパース性を促進し、サイズや推論コストを削減しますが、構造全体を除去する構造的プルーニングは推論時間の短縮やメモリオーバーヘッドの削減が可能です。本論文では、説明可能な深層学習に基づいた新しいワンショットプルーニングフレームワークを提案し、モデル予測と構造間の因果関係を利用することで、効率的にネットワークサイズを削減し、パフォーマンスを維持しながら構造を除去します。実験では、従来の手法に比べてモデルサイズの大幅な削減を実現し、ファインチューニングなしでパフォーマンスへの影響を最小限に抑えました。