フェデレーテッドラーニング(FL)は、複数のクライアントがデータを共有せずに共同でモデルを訓練できる分散型のプライバシー保護型機械学習の手法です。しかし、実際のシナリオでは、クライアントの計算資源が異なり、データが独立同分布(IID)でない場合が多く、訓練において大きな課題が生じます。これに対処するために、個別化フェデレーテッドラーニング(PFL)が登場しましたが、既存のアプローチは、クライアント間のモデルとデータの異質性を考慮していません。そこで提案されるのが、進行型パラメータ調整(FedPPA)で、これはクライアント間の共通層の重みをグローバルモデルの重みに順次調整します。このアプローチは、クライアントの更新時にグローバルモデルとローカルモデルの不整合を軽減しつつ、クライアントのローカルな知識を保持します。実験結果では、FedPPAが既存のFLアルゴリズムを一貫して上回り、個別化の適応に優れた性能を示しています。