arXiv cs.LG

浅いニューラルネットワークの近似率:バロン空間、活性化関数および最適性分析

Approximation Rates of Shallow Neural Networks: Barron Spaces, Activation Functions and Optimality Analysis

http://arxiv.org/abs/2510.18388v1


本論文は、指数関数の冪である活性化関数を持つ浅いニューラルネットワークの近似特性について検討します。特に、バロン関数空間内で近似される関数の次元および滑らかさに依存する近似率に焦点を当てています。ReLU$^{k}$活性化関数の近似率を調査し、$ ext{l}^{1}$-有界係数や不十分な滑らかさ条件下では最適な近似率が達成できないことを証明しています。また、バロン空間およびソボレフ空間の関数について様々なノルムにおける最適な近似率を確立し、次元の呪いを確認します。この結果は、浅いニューラルネットワークの近似能力の限界を明らかにし、活性化関数やネットワーク構造の選択に関する洞察を提供します。