本研究では、大規模言語モデル(LLM)が構造化出力を生成する際の出力の多様性を向上させる新しい方法を提案しています。従来の構造生成手法は有効性を確保する一方で、出力の多様性が欠如するという重要な制約があることを示しました。提案する手法は、オートマトントラバースの履歴を活用し、LLMを新たな構造パターンへと誘導することで、多様性を向上させます。評価結果により、提案手法は構造と内容の多様性を有意に改善しつつ、生成効率も維持できることが確認されました。さらに、オープンソースライブラリのテストケース生成における効果を示すケーススタディも行われています。この研究は、ICFEM 2025において最優秀論文賞を受賞しました。