本研究は、機械学習モデルに対する会員推測攻撃(MIA)の脆弱性を、過学習の観点を超えて探求しています。MIAは、特定のデータポイントがモデルの訓練データに含まれているかどうかを判断することを目的としています。従来の研究では、モデルの過学習がMIAの成功に寄与している主要な要因と見なされていましたが、過学習していないモデルでも、データの一部が漏れる可能性があることを示しています。本論文では、過学習の影響を受けていないモデルにおけるMIAの脆弱性の根本原因を分析し、独自のサンプル特性が関与していることを明らかにしました。特に、対象となるサンプルは、分類が難しいノイズの多い外れ値であることが多いです。そして、これらの脆弱なサンプルを保護するための防御戦略を提案し、機械学習モデルのプライバシー保護能力を向上させることを目指しています。