本論文では、大規模言語モデル(LLMs)の規範的推論能力を論理的および様相的視点から体系的に評価しています。規範的推論は義務や許可といったノルマティブモダリティを含む推論の一種ですが、LLMsのこの分野でのパフォーマンスはまだ十分に探求されていません。本研究は、規範的モーダルと知識的モーダルでの推論能力を比較することで、LLMsがどの程度規範的モダルを使用して推論できるかを評価します。そのために、規範的および知識的領域におけるさまざまな形式的パターンをカバーした新しいデータセットを導入しています。結果として、LLMsは一般的に有効な推論パターンに従っているものの、特定の規範的推論において顕著な不整合や認知バイアスが見られることが明らかになりました。この知見は、LLMsの規範的推論における論理的一貫性の課題を浮き彫りにし、その信頼性向上への示唆を提供します。