この記事では、事前学習された予測モデルが時系列分類においてどの程度効果的かを探求しています。最近の研究では、時系列の基盤モデルが主に予測に焦点を当てており、学習された表現の一般化能力が不明でした。著者たちは、凍結された事前学習の予測モデルが分類に効果的な表現を提供できるかを調査し、異なる表現抽出手法やモデル非依存の埋め込み拡張を導入しました。実験結果から、最良の予測モデルは、特に分類のために事前学習された最先端モデルと同等か、それを超える分類精度を達成していることが示されました。更に、予測性能と分類性能の間に正の相関があることも確認されました。これらの結果は、タスク固有の事前学習が必須であるという仮定に挑戦し、予測を学ぶことが一般的な時系列基盤モデル構築への強力な道筋となる可能性を示唆しています。