本研究では、感情的かつ制御可能な象徴的ピアノ演奏モデルを開発するための新しいフレームワーク「SyMuPe」を提案します。このフレームワークの中核をなすモデル「PianoFlow」は、条件付きフロー整合を用いて多様なマスク性能インペインティング作業を解決するようにトレーニングされています。PianoFlowは、無条件生成と音楽パフォーマンス特徴のインフィリングをサポートし、2,968時間の整列した楽譜と表現豊かなMIDI演奏から成るデータセットを使用して学習されました。また、テキストおよび感情制御のために、ピアノ演奏の感情分類器を統合し、感情に基づく条件入力でPianoFlowを調整しています。パフォーマンス評価では、他の手法と比較して優れた結果が得られ、人間が録音したMIDIサンプルに匹敵する演奏品質を実現しています。このモデルは、インタラクティブなアプリケーションに統合可能で、よりアクセスしやすく魅力的な音楽パフォーマンスシステムの創造に貢献することが期待されます。