本研究は、大規模言語モデル(LLM)が複雑な問題を解決する一方で、単純なバリエーションでは失敗することを指摘し、人間の推論とは根本的に異なるメカニズムによって正確な出力を達成していると論じています。著者たちは、計28の認知要素を整理し、推論の過程における行動の現れを分析します。170,000のトレースを用いた初の大規模分析を実施し、人間は階層的なネストとメタ認知モニタリングを活用するのに対し、モデルは浅い前方連鎖に依存していることが明らかになりました。また、成功に関連するメタ認知的制御が軽視されていることも示しています。成功に寄与する行動パターンを利用して、複雑な問題のパフォーマンスを最大60%向上させる助言システムを開発しました。これにより、認知科学とLLM研究を結びつけ、より原理的な認知メカニズムを用いたモデル開発の新たな方向性を示しています。