本研究は、事前訓練モデルを用いた感情認識の進展と、オープンエンドなクエリに対する課題を探求している。最近のトランスフォーマモデルは感情認識の分野で大きな進展を遂げたが、コンテキストの曖昧さや言語的変動、複雑な感情表現の解釈の難しさなど、オープンテキストでの自動感情分析には依然として大きな課題が存在する。研究では、ファインチューニングとプロンプトエンジニアリングの効果を、3つの異なるシナリオで比較している。実験結果では、ファインチューニングされた事前訓練モデルが70%以上の高い精度を示しており、LLM(大規模言語モデル)が効果的に機能するためには構造的なプロンプトエンジニアリングと感情グルーピングが重要であることが明らかになった。この成果は、感情分析や人間-コンピュータ間の相互作用、ユーザー行動の理解を改善する可能性がある。