近年、自然言語の説明から最適化モデルを生成するために大規模言語モデル(LLM)が広く使用されるようになりましたが、生成されたモデルが正しいかつ要求される要件を満たしているかを検証する方法が大きな課題となっています。本研究では、ソフトウェアテストの手法を拡張した新しいエージェントベースの自動検証手法を提案します。この方法では、複数のエージェントが初めに問題レベルのテストAPIを生成し、その後このAPIを利用してテストを生成し、最終的には最適化モデル特有の変異を生成します(テストスイートの欠陥検出能力を評価するための手法)。実験を通じて、このエージェントエンセーブルによる検証の質が高いことを、既知のソフトウェアテスト指標である変異カバレッジの観点から示しています。