この研究は、意思決定を行うAIエージェントの整合性を人間の価値観やガイドラインに保ちながら、複雑で動的な環境での運用を支援する新しい手法を提案しています。従来の方法では、目的達成のために訓練されたエージェントが有害な行動を取る可能性があり、報酬最大化と整合性の維持においてトレードオフが生じます。この問題に対処するため、提出された研究では、モデルに基づくポリシー形成を用いたテスト時整合性技術が提案されており、倫理的な属性に応じた行動の正確な制御を可能にします。研究者たちはMACHIAVELLIベンチマークを利用して、この手法を評価し、エージェントの再訓練なしで倫理の整合性と報酬最大化の間の適切なトレードオフを実現しました。このアプローチは、異なる環境において不倫理的な行動を軽減する効果的でスケーラブルな解決策を提供します。