Co-Sightは、LLM(大規模言語モデル)ベースのエージェントにおける長期的な推論が失敗する原因の一つである中間推論の不十分な検証を解決するために、対立認識メタ検証(CAMV)と構造化事実による信頼できる推論(TRSF)の二つのメカニズムを用いて、推論を反証可能で監査可能なプロセスに変える方法を提案します。CAMVは検証を対立の特定とターゲットを絞った反証に再定義し、計算を専門家エージェント間の不一致のホットスポットにのみ振り分けることで、効率性と信頼性を向上させます。一方、TRSFはエビデンスを構造化して整理、検証、同期させることで、すべての推論が信頼できる情報に基づくことを保障します。これらのメカニズムは密接に連携し、LLMベースのエージェントにおける信頼性の高い長期的推論を実現します。実験結果では、Co-SightはGAIAやHumanity's Last Examで最先端の精度を達成しています。