本論文では、拡散モデルの生成品質を向上させつつ、計算コストを削減する手法を提案します。従来のアプローチでは、拡散プロセスから数ステップのODEソルバーを抽出するための勾配ベースの最適化手法が用いられていますが、これには複雑なトレーニングが必要で繊細なディテールを保つことが困難でした。ここでは、追加のトレーニングなしで従来の手法よりも品質を向上させる「一般化ソルバー」を紹介します。さらに、元の抽出損失と対抗トレーニングを組み合わせることで、アーティファクトを軽減し、詳細描写の精度を高める手法を開発しました。この手法は「一般化対抗ソルバー」と呼ばれ、同等のリソース制約下での既存のソルバートレーニング手法に対して優れた性能を発揮します。