本研究では、Edge AIのトレンドであるインシチュー学習において、エッジデバイスでの深層ニューラルネットワーク(DNN)トレーニングの課題を解決するために「適応精度トレーニング(APT)」を提案します。エネルギーとメモリが制約されているため、低精度トレーニングはトレーニングコストを削減しますが、収束速度が遅くなる可能性があります。本手法では、前方と後方の計算で同一の精度のモデルを使用し、メモリ消費を減少させます。また、トレーニングの進捗に応じて層ごとの精度を動的に割り当てることにより、学習の効率を向上させます。実験結果では、APTが50%以上のエネルギーとメモリの節約を実現し、精度のわずかな損失(1%の損失に対して20%の追加節約が可能)でバランスを取れることが示されました。