大規模言語モデル(LLM)の信頼性ある展開において、幻覚は主要な障害の一つである。本論文では、幻覚の軽減に向けて、情報検索を強化した生成(RAG)と推論の強化が効率的で広く採用されているアプローチとして注目されている。また、これらの手法の相乗的な可能性と幻覚軽減のメカニズムはまだ体系的に調べられていない。本調査はアプリケーション指向の観点から、RAGと推論の強化、およびそれらがエージェントシステムに統合される方法を分析する。知識ベースと論理ベースの幻覚を区別する分類法を提案し、特定の問題に対してRAGと推論がどのように対処するかを体系的に検討する。実世界のアプリケーションと評価、ベンチマークを支持する統一フレームワークを提示している。