本論文では、AIシステムにおけるリスクを異なるステークホルダーがどのように認識するかを理解することが、責任ある利用のために重要であると述べています。著者らは、LLMを用いてリスクを予測し説明するためのステークホルダー基盤のリスク評価フレームワークを提案しています。このフレームワークは、具体的なステークホルダーごとの解釈可能な政策を生成し、同じリスクに対する異なる意見を示します。医療AI、自動運転車、詐欺検出の3つの実際のケースを通じて、ステークホルダー間の対立がどのように生じるかを視覚化するインタラクティブな手法を提案し、透明性を向上させることを目的としています。研究結果は、ステークホルダーの視点がリスク認識や対立パターンに大きく影響することを示しています。これにより、LLMに基づく評価を人間中心のAIガバナンス目標に沿ったものにするためのステークホルダー意識の説明が重要であることを強調しています。