スパイキングニューラルネットワーク(SNN)は高いエネルギー効率が評価されていますが、効果的なモデル訓練には課題があります。最近の研究では、事前訓練された人工ニューラルネットワーク(ANN)を教師とし、目標とするSNNを学生として利用する知識蒸留(KD)技術が導入されています。しかし、この手法はANNとSNNのアーキテクチャの本質的な違いを見逃しがちです。特に、ANNの出力は連続的な分布を持つ一方で、SNNの出力は疎で離散的です。本論文では、スパイク活性化マップをANNのクラス認識活性化マップに整合させる「Saliency-scaled Activation Map Distillation(SAMD)」と、ガウス雑音を使ってSNNの疎なロジットをスムーズにする「Noise-smoothed Logits Distillation(NLD)」の2つの革新的なKD戦略を提案します。実験結果は提案手法の効果を示しています。