この記事では、コンピュータビジョン、グラフィックス、ロボティクスなどの研究分野における動作の階層構造を扱っている。従来の手法は、手動で定義された固定の動作プリミティブに依存しており、異なるタスクにおける一般化に限界がある。本研究では、データから直接構造化された解釈可能な動作関係を学習する一般的な階層的動作モデル法を提案している。この方法は、観察された動作をグラフベースの階層を用いて表現し、グローバルな動作を親から継承されたパターンと局所的な動作残差に明示的に分解する。階層推論を微分可能なグラフ学習問題として定式化し、グラフニューラルネットワークを介して学習された親子依存関係を捉える。実験結果によると、この方法は1Dおよび2Dの動作階層を再構築し、動的3Dシーンの変形においてより現実的で解釈可能な結果を生成している。データ駆動型の柔軟な階層モデル法を提供することで、幅広い動作中心のタスクに適用可能な定式化を提示している。