この記事では、連続時間における生物学的に妥当な学習のモデルを研究しています。従来のアルゴリズムモデルが離散的な更新を行う一方で、この研究は生物学的学習が時間的に連続して進行することを考慮しています。著者たちは、いくつかの生物学的に妥当な学習アルゴリズムを統一する連続時間の神経モデルを提案し、学習と推論のフェーズを分ける必要がないことを示します。確率的勾配降下法(SGD)やフィードバックアライメント(FA)などのルールがモデルのダイナミクスの限界ケースとして自然に出現することがわかりました。また、シミュレーションにより、これらのネットワークが時間的ずれや統合ノイズの中でも安定して学習できることが示されています。学習は時間重なりに依存し、シナプスは入力と誤差信号が同時に存在する場合に限り正しく更新されることが重要です。