この記事では、異なる文化における主観的な執筆の好みを評価する新しいデータセット「WritingPreferenceBench」を紹介しています。これは、8つのクリエイティブライティングジャンルにおける1,800対の人間の注釈が付いた好みペアから成り、その中には1,200の英語と600の中国語が含まれています。従来の手法では、客観的なクオリティ信号が除去されるとパフォーマンスが大幅に低下することが明らかになりました。特に、現在の報酬モデルは主に客観的なエラーを検出することを学習し、創造性やスタイル、感情的共鳴といった主観的なクオリティの好みを捉えることには至っていないと指摘しています。さらなる分析により、モデルのスケールにかかわらず、ジャンル間で高い変動が観察され、成功する好みモデリングには中間の推論表現が必要である可能性が示唆されています。