arXiv cs.AI

幻覚を超えて: 大規模言語モデルにおける理解の幻想

Beyond Hallucinations: The Illusion of Understanding in Large Language Models

http://arxiv.org/abs/2510.14665v1


大規模言語モデル(LLM)は人間のコミュニケーションや意思決定に深く組み込まれているが、その出力は流暢で感情的に共鳴しつつも、統計的予測に基づくため事実的妥当性を欠くリスクがある。この論文では、AIが人間の直感を模倣するとの観察を基に、LLMが反射や反証を伴わない速く連想的な認知を運用する様を指摘している。その解決策として、「Rose-Frame」という三次元フレームワークを提案し、人間とAIの相互作用における認知的及び認識的な漂流を診断する。具体的には、地図と領域の区別、直感と理性の分け方、対立と確認の関係を検討し、それぞれの次元が引き起こす失敗を明示する。このフレームワークは、データやルールでLLMを修正するのではなく、モデルの限界やユーザーの仮定を可視化し、透明で批判的なAIの運用を可能にすることを目指している。