arXiv cs.AI

大規模言語モデルにおける幻覚の動態の数学的分析:不確実性の定量化、高度なデコーディング、体系的な軽減手法

Mathematical Analysis of Hallucination Dynamics in Large Language Models: Uncertainty Quantification, Advanced Decoding, and Principled Mitigation

http://arxiv.org/abs/2511.15005v1


この記事では、大規模言語モデル(LLM)が抱える幻覚(事実に反したが信じられそうな出力)の問題を数学的に解析しています。著者は、確率論的モデリングや情報理論を用いて、エラーが自己回帰的にどのように積み重ねられるかを分析し、セマンティック及び位相による不確実性の新たなメトリクスを提案しています。また、対照デコーディング、情報検索による基盤強化、事実の整合性、及び abstention(自発的な出力回避)のような体系的な軽減戦略も発展させています。これにより、最近のキャリブレーションや情報検索の進展を統一的に関連付け、より安全で信頼性の高いLLMの実現を目指します。