本研究では、LLM(大規模言語モデル)の推論を解釈する際に、単一の思考連鎖(CoT)を研究することが不十分であると主張しています。著者たちは、潜在的な因果関係や計算の理解には、サンプリングを用いることが重要であると示しています。ケーススタディを通じて、モデルが行動の理由を述べた際、その理由が本当に行動を引き起こしたのかを評価し、自己保存に関する言及が因果的影響を持たないことを示しました。また、人工的なCoTの編集が推論を誘導するのに十分かどうかを調査し、再サンプリングを用いた介入の方が安定した効果を持つことを発見しました。他にも、推論ステップを除去した場合の影響や、「不信頼な」CoTにおける因果的介入の分析を通じて、再サンプリングが信頼性のある因果分析を可能にし、モデルの推論に関する明確なナラティブを提供できることを示しています。