本論文では、大規模言語モデル(LLM)の推論能力を向上させるために、エネルギーベースのキャリブレーションフレームワークであるEBM-CoTを提案しています。従来のチェーンオブス思想(CoT)手法は、トークン単位の離散的な推論プロセスに依存しているため、エラーの伝播や語彙の限界によって、柔軟性が欠如し、一貫性のない結果をもたらすことがありました。一方、EBM-CoTは内部の思考表現をエネルギーベースのモデルを通じて精緻化し、低エネルギーで高一貫性の領域に推論経路を調整することで、推論の正確さと一貫性を向上させることを目指します。マスコミュニケーション、常識、象徴的推論の各ベンチマークにおける実験を通じて、このフレームワークがLLMの多段階推論の一貫性と効率を大幅に向上させることを示しています。