arXiv cs.AI

コード生成の改善のための論理蒸留と構造的整合性

Reasoning Distillation and Structural Alignment for Improved Code Generation

http://arxiv.org/abs/2510.17598v1


本記事では、言語モデルを用いた効果的なコード生成のために、プロンプトの意図を正確に理解し、正しいソリューションを生成するためのアルゴリズム的な推論能力が重要であることを強調しています。特に、大規模言語モデル(VLLM)の推論能力を小型で効率的なモデルに蒸留する方法を提案し、正しい解決経路を特定し問題定義と潜在的解決策の間に構造的な対応を確立する新たな構造認識損失最適化手法を用いてモデルを訓練します。実験結果は、この微調整されたモデルがMBPP、MBPP Plus、HumanEvalのベンチマークにおいて先行モデルと比較して著しく優れた結果を示したことを示しています。このアプローチにより、モデルはトークンレベルの生成を超え、問題に対する解決策の全体的な構造を深く理解することが可能になります。