機械学習理論における中心的な課題の一つは、学習アルゴリズムの一般化挙動を理解することです。本研究では、フラットミニマが一般化性能の向上に寄与することに着目し、確率凸最適化の文脈でその関係を探ります。初めに、フラットな経験的ミニマが、最適な一般化を示す鋭いミニマでも$ ext{Ω}(1)$の母集団リスクを生じさせる可能性があることを示しました。さらに、フラットな解を目指すために設計されたSharpness-Aware Gradient Descent (SA-GD)およびSharpness-Aware Minimization (SAM)という2つのアルゴリズムについて、SA-GDがフラットなミニマに速やかに収束する一方で、一般化性能が損なわれることを証明しました。SAMも経験的損失を最小化しますが、鋭いミニマに収束するリスクがあることが示されています。さらに、両者の母集団リスクの上限をアルゴリズムの安定性技術を用いて確立しました。