この研究は、ニューラルネットワークを用いたサブグリッド応力モデルが、事前評価(a priori)では優れた性能を示す一方で、事後評価(a posteriori)では期待外れな結果を示すことに焦点を当てています。この性能ギャップを縮小する方法として、データの拡張と入力の複雑性の低減を組み合わせることが提案されています。具体的には、訓練データに異なるフィルタを使用して拡張することで、事前評価の性能を維持しつつ、異なる数値スキームを用いた大規模渦シミュレーション(LES)でも堅牢性が向上することが示されています。さらに、ニューラルネットワークへの高次項の入力を削除することで、事前評価と事後評価の性能差が小さくなることが確認されました。このように、訓練データの拡張とシンプルな入力を組み合わせることで、事後性能が事前評価とより適合する結果が得られることが分かりました。