本論文は、スパイキングニューラルネットワーク(SNN)のための新しいトレーニング手法「SpikeFit」を提案します。この手法は、ニューロモルフィックハードウェア上での効率的な推論を可能にし、ニューロンやシナプスの数、低ビット幅(例:4ビット、8ビット)表現といった厳しい要件を考慮しています。SpikeFitでは、従来の圧縮手法とは異なり、モデルの重みを学習可能なパラメータとして扱い、最適なクラスタリングに基づくトレーニングを実現します。これにより、ネットワーク圧縮効率が向上し、ユニークなシナプス接続の数をニューロモルフィックプロセッサに必要な値に制限します。この共同最適化により、SpikeFitはハードウェアの制約に適合した重みセットを見つけ、従来の手法以上に幅広いニューロモルフィックプロセッサに展開できます。さらに、Fisher Spike Contribution(FSC)という新しいハードウェアに優しいプルーニング手法を導入し、実験でも最も低いエネルギー消費を実現しています。