本論文では、機械学習モデルから特定のトレーニングデータの影響を除去するためのアンラーニングアルゴリズムについて議論されています。主に「Descent-to-Delete(D2D)」と「Rewind-to-Delete(R2D)」の2つのフルバッチ勾配降下法が紹介されており、これらは実装が容易で、実証可能なアンラーニング保証を満たしています。特に、D2Dの確率的バージョンはファインチューニングの基準として広く利用されていますが、非凸関数に対する理論的な支持が欠けています。本研究では、強凸、凸、及び非凸損失関数に対するR2DおよびD2Dのアンラーニング保証を、偏った勾配系の観点から分析し、確率的感度限界を導出しました。D2Dは強凸関数に対してより厳密な保証を提供しますが、R2Dは非凸設定でもアンラーニングを実現することが可能です。