この記事では、物理に基づいたニューラルネットワークやニューラルオペレーターが複雑な偏微分方程式系を解く能力が向上していることを述べています。特に、境界条件を「弱く」または「強く」強制する方法が紹介されています。弱い強制は損失関数における偏差をペナルティとして処理する手法であり、実装が簡単です。一方、強い強制では解の構造が自動的に指定された値や導関数と一致するように学習します。これにより、精度や訓練時間での利点が得られます。ただし、従来のアプローチでは完全な $C^1$ 境界を必要とし、条件が部分的に $C^1$ である場合には不安定性を引き起こすことがあります。著者らは、新たに提案された方法を用いることでこの制限を克服し、スカラーダーシー流および定常ナビエ-ストークス方程式に対する新しいテクニックの性能を比較しています。