この記事では、大規模言語モデル(LLM)が人間のコミュニケーションにおける動機を理解する能力について調査しています。人は特定の意図を持って話したり書いたりしますが、その情報はしばしばバイアスや利益によって影響を受けます。研究では、LLMがこのバイアスをどのように認識し、考慮に入れるかを実験によって確認しました。結果、LLMは偏った情報源からの情報を人間のように適切に排除できることが示されましたが、実際の広告などの複雑な環境では、期待する評価が得られないこともありました。しかし、動機に対する注意を高める介入を行うことで、LLMの結果が理論モデルとより一致することが分かりました。これにより、LLMは他者の動機に基本的に敏感であるが、実際の状況における適用には更なる改善が必要であることが示唆されました。