本論文では、ノイズのあるラベルと外れ値を含む訓練データが深層ニューラルネットワークの性能と信頼性を低下させる問題に対処するため、Step-Eという新しいフレームワークを提案しています。このフレームワークは、サンプル選択とモデル学習を単一の最適化プロセスとして統合し、各エポックでサンプルを損失に基づいてランク付けし、高損失のサンプルを徐々に除外します。これにより、容易で一貫した例に焦点を当て、持続的な外れ値は最終的に無視します。実験では、CIFAR-100NやCIFAR-10Nデータセットにおいて、ResNet-18モデルのテスト精度を劇的に向上させる結果が得られ、他のデータクリーニング手法と比較しても優れた性能を示しました。