本論文では、分散学習(DL)におけるプライバシー保証の向上を図るため、行列因子分解(MF)の最近の進展を活用する方法を提案しています。DLは、生データを共有することなく、ユーザーが協力してモデルを訓練できる手法であり、プライバシーの保護を重視しています。これまでの研究では、通常の差分プライバシー(DP)を利用して強固なプライバシー保証が提供されていますが、実際にはプライバシーと有用性のトレードオフが、集中型訓練よりも悪化することがあると指摘されています。本稿では、MFを用いて時間的ノイズの相関を分析し、既存のDLアルゴリズムと信頼モデルを統一された定式化に適用することで、プライバシーのアカウンティングを強化する方法を示しています。このアプローチを実証するために、ユーザーレベルの相関ノイズを活用したgossipベースのDLアルゴリズムMAFALDA-SGDを導入し、既存の手法よりも優れた性能を示しています。