本研究では、深層学習における主要な最適化手法であるAdamの理論的理解が限られている中で、特にサンプルごとの更新を行うIncremental Adamの暗黙のバイアスを検討します。従来の分析では、Adamがフルバッチ体制での$ ext{l} ext{∞}$-幾何学に整合する解を優先することが示されていますが、本研究では線形分離可能データに対するロジスティック回帰において、Incremental Adamのバイアスがフルバッチの振る舞いから逸脱する例を示します。また、Incremental Adamが$ ext{l} ext{2}$-最大マージン分類器に収束する構造化データのクラスを構築し、一般データセットに対してはグラフ化したアルゴリズムを開発し、収束方向を特徴付ける方法を提案します。最終的に、Adamとは異なり、Signumアルゴリズムは任意のバッチサイズにおいても$ ext{l}_ ext{∞}$-最大マージン分類器に収束することを証明します。これらの結果は、Adamの暗黙のバイアスがバッチ方式とデータセットに依存する重要性を強調しています。