この記事では、大規模言語モデル(LLM)の信頼性を向上させる最近の進展、特に自己一貫性とテスト時強化学習(TTRL)が紹介されています。著者たちは、LLMにおける認証可能な推論のための統一フレームワークを提示し、過半数投票が自己一貫性の統計的証明を提供することを示しています。彼らはまた、有限サンプルの集中境界とマルティンゲール多数証明(MMC)という新たな手法を導入し、サンプルが十分に取得されたかどうかを適応的に判断する仕組みを提案しています。さらに、TTRLなどのラベルなしの後処理手法がどのように答えの分布を修正し、サンプル数を減少させるかについても説明されています。これらの結果は自己一貫性とTTRLという2つの中心的なテスト時拡張戦略を、ラベルなしで認証可能な信頼性という観点から結びつけています。