本論文では、時系列予測モデルのトレーニングにおいてモデルの予測の条件付き分布とラベル系列のそれを整合させる必要があることを論じます。従来の直接予測(DF)アプローチは、通常平均二乗誤差を用いてラベル系列の条件付き負の対数尤度を最小化しますが、ラベルの自己相関が存在する場合にはこの推定が偏ることが示されています。そこで本論文では、新たに提案されたDistDF手法を提案し、条件付き予測とラベル分布の間の乖離を交互に最小化することで整合を達成します。有限な時系列観測から条件付き乖離を推定することが難しいため、新たに導入された共同分布ワッサースタイン乖離を利用し、条件付き乖離の上限を証明します。この乖離はエンピリカルサンプルからの扱いやすく微分可能な推定を可能にし、勾配に基づくトレーニングとシームレスに統合されます。実験結果から、DistDFが様々な予測モデルの性能を向上させ、最新の予測性能を達成することが確認されました。