この記事では、等変ニューラルネットワークの普遍性に関する研究が紹介されています。従来の研究は、特定の条件下でのみ普遍性が成立することが多く、実用的ではない高次元空間や特化したアーキテクチャに依存しています。本研究では、分離制約の下での普遍性定理を確立し、完全に接続された出力層を追加することで、分離制約のある連続関数のクラス内での近似を保証する方法を示します。また、等変ネットワークにおいては、従来の分離可能性の定義が不十分であり、新たに「エントリごとの分離可能性」という基準を導入しました。十分な深さがあるか適切な出力層が追加されることで、等変ネットワークも普遍性を達成できることが示されています。これにより、深さと出力層が普遍性の決定的なメカニズムであることが明らかになり、従来の研究結果を統一的に拡張する視点を提供します。