本稿では、深層学習における正規化手法の一つであるIBNormを提案しています。従来のアプローチ(BatchNorm、LayerNorm、RMSNorm)は、平均ゼロと単位分散を強制することで訓練を安定させていますが、タスク関連情報のキャプチャ能力を制御していません。IBNormは、情報ボトルネックの原則に基づく方法であり、埋め込みが予測情報を保持しつつ、不必要な変動を抑える境界付き圧縮操作を導入します。この手法により、標準的な正規化の安定性と互換性を保ちながら、より情報量の多い表現を実現します。理論的には、IBNormは従来の手法よりも高い情報ボトルネック値と厳しい一般化境界を達成することが証明されています。エンピリカルな実験からも、IBNormは大規模言語モデル(LLaMA、GPT-2)や視覚モデル(ResNet、ViT)でBatchNorm、LayerNorm、RMSNormを一貫して上回っていることが確認され、相互情報量分析により優れた情報ボトルネック特性が示されました。