本論文では、シナプス可塑性に基づく自己注意機構を実装したスパイキング神経形態トランスフォーマー(S$^{2}$TDPT)を提案しています。従来のトランスフォーマーの注意メカニズムは、点積の類似性に依存しており、エネルギー効率が悪く、ニューロモルフィック計算における神経回路の特性から逸脱しています。S$^{2}$TDPTは、スパイク時間依存性可塑性(STDP)を利用し、メモリ内での計算を自然にサポートします。このモデルは、CIFAR-10およびCIFAR-100データセットにおいて高い精度を達成し、従来の人工ニューラルネットワークに比べてエネルギー効率が88.47%改善されました。さらに、Grad-CAMを用いた解析により、モデルは意味的に関連する領域に注意を向けていることが示され、解釈可能性が向上しています。全体として、S$^{2}$TDPTは、生物にインスパイアされた注意メカニズムがエネルギー効率の良いハードウェアフレンドリーなモデルを生み出す可能性を示しています。