本記事では、機械学習における「機械の非学習」について論じており、これはデプロイされたモデルからトレーニングサブセットの影響を除去する手法です。プライバシー保護とモデルの信頼性にとって重要な取り組みであるが、忘却サンプルに対する勾配上昇が保持された知識に悪影響を与えることが懸念されています。従来のアプローチは、有効な忘却と保持セットの保存との間にトレードオフがあり、特に忘却が保持された知識に与える影響に関する正式な分析が不足しています。本研究は、モデル訓練中の保持損失の局所的変化を一次の観点から分析し、保持グラデーションが張る部分空間に対して直交する更新方向が保持損失に影響を与えないことを示しています。これに基づき、提案された「幾何学的非絡み取り学習(GU)」は、忘却勾配の更新を保持空間の接線成分と法線成分に分解し、法線成分のみを実行する手法です。GUは既存の勾配ベースの非学習手続きに接続可能であり、様々なベンチマークで一貫した改善を達成しています。