この記事では、巨大言語モデル(LLM)が自律エージェントとしてますます活用されている一方で、その実用性が限られたコンテキストウィンドウや状態の非同期性により制約を受けていることが説明されています。具体的には、LLMの無状態性と効率的でないコンテキスト管理が原因であり、これが信頼性の低い出力や予測不可能な動作を引き起こしています。そこで、著者は「ゲートキーパープロトコル」と呼ばれる新しいフレームワークを提案し、エージェントとシステムの相互作用を規定します。このプロトコルでは、エージェントがまずシステムの最小限の「潜在状態」表現で操作し、高精度のコンテキストを需給に応じて要求することを求めています。相互作用はJSONフォーマットを介して行われ、エージェントのシステムモデルがシステムの現実に整合していることを保証します。このアプローチにより、エージェントの信頼性が向上し、計算効率が改善されることが示されています。