この記事では、エージェントが大規模言語モデルに基づいてツールを動的に利用し、保護されたリソースにアクセスする際の認可方法のリスクについて論じています。従来の認可方法は過剰な権限を付与し、エージェントが意図したタスクの範囲を超えた操作を可能にしてしまうため、新たに「ASTRA」というデータセットとデータ生成パイプラインを提案し、タスクとスコープのセマンティックマッチングを評価します。実験を通じて、タスクの完了に必要なスコープが増えるに連れてモデルベースのマッチングの限界が示され、マルチエージェントおよびツール強化アプリケーションにおける意図認識のある認可技術のさらなる研究の必要性が強調されています。