高次ハイパーグラフ学習(HOHL)は、従来のハイパーグラフ正則化の代替手法として最近提案され、高次の滑らかさをハイパーグラフ構造に基づく多スケールラプラシアンの冪を通じて強制する。これまでの研究では、幾何的設定における漸近的一貫性分析を通じてHOHLの良いおよび悪い定義を確立してきた。本研究では、HOHLの切り捨て版の一貫性を証明し、完全監視学習における正則化器として使用する場合の明示的な収束率を導出することで、理論的基盤を拡張する。また、活発な学習や基礎的な幾何的構造を持たないデータセットにおいてもHOHLの強力な実証的性能を示し、様々な学習設定におけるHOHLの多様性と頑健性を強調している。