生成AIによる音楽制作は、驚異的な忠実性と多様なスタイルを実現しているが、特定の損失関数により人間の繊細な好みと一致しないことが多い。本論文では音楽生成における好みの整合技術を体系的に適用することを提案し、計算最適化と人間の音楽的評価の間の根本的なギャップを埋める手法を探る。MusicRLの大規模な好み学習やDiffRhythm+における拡散ベースの好み最適化、Text2midi-InferAlignのような推論時最適化技術が、音楽の特有の課題(時間的整合性、調和の一貫性、主観的質評価)にどのように対処できるかを考察する。また、長形式の作曲へのスケーラビリティや信頼性などの研究課題を特定し、インタラクティブな作曲ツールや個別化音楽サービスにおける革新的な応用の可能性を示唆する。機械学習と音楽理論の進展を組み合わせた持続的な学際研究が求められる。