本論文では、機械学習や最適化における基本的なオペレーターであるソフトマックス関数のリプシッツ連続性について論じています。これまで、ソフトマックスのリプシッツ定数は$ ext{ℓ}_2$ノルムに対して$1$であると考えられていましたが、本研究では、ソフトマックス関数がすべての$ ext{ℓ}_p$ノルム($p eq rac{1}{2}$の場合)に対して$1/2$のリプシッツ定数を持つことを証明しました。また、$p=1$と$p= ext{∞}$の場合においてローカルリプシッツ定数が$1/2$に達し、$p ext{が}(1, ext{∞})$のときには$1/2$未満であることも確認しています。これにより、既存の堅牢性や収束に関する理論的な結果が改善されることを示唆しています。実験的には、注意ベースのアーキテクチャ(ViT, GPT-2等)や強化学習の確率的ポリシーにおいて$1/2$のリプシッツ定数の鋭さを確認しました。