大規模言語モデル(LLM)は言語理解に優れる一方で、多段階推論に関しては幻影を見たり、苦労することがある。本稿では、知識グラフに基づく検索強化生成(KG-RAG)の手法を提案する。この手法は、クエリとグラフトリプルを対称的に分離し、マルチビュー空間において強固な検索アーキテクチャを実現する。特に、異なる注意ヘッドが推論の異なる段階で特化し、推論チェーンの各ホップに寄与することに着目している。これにより、クリーンなサブグラフの構築が可能となり、LLMを基にした段階的な推論を導く。実験では、WebQSPとCWQにおいて競争力のある検索とQAパフォーマンスを示し、幻影を減少させることを確認した。結果は、知識に基づくマルチホップ推論のための原理的なアプローチとして、マルチビュー注意ヘッドの特化が有望であることを示している。実装は論文受理後に公開予定である。