この記事では、エージェントとしての人工知能(AI)の出現が新たな人格の多様性を引き起こすことを論じています。著者たちは、人格を発見すべき形而上学的性質ではなく、権利と責任の束として捉える実践的な枠組みを提案します。この枠組みにより、異なる文脈に応じたカスタマイズ可能な解決策を生み出すことが可能になり、AIとの契約などの現実的なツールを作成できるとします。また、人格を課題として捉える場合、人間の社会的ヒューリスティクスを悪用する可能性についても触れ、一方で責任を確保するために義務の束を認めることが必要だと論じています。最終的に、従来の人格の本質的定義に対する探求を拒否し、AIエージェントの社会的統合に向けたより柔軟なアプローチを提示します。