フェデレーテッドラーニング(FL)は、プライバシーを保護しながら複数のクライアントで機械学習モデルを協力的にトレーニングできる技術です。しかし、クライアントからの更新情報は依然としてプライバシー漏洩の脆弱性を抱えています。本論文では、勾配反転攻撃(GIA)を通じてトレーニングデータを再構築する手法が提案されています。これらの攻撃は、中間更新を逆算することで実施され、通常はノイズのある近似値を生成します。著者たちは、デノイジングモデルを使用することで再構築精度を向上させる新しい手法「GUIDE」を開発しました。GUIDEは、サロゲートデータセットを利用するGIAに統合可能であり、異なるFLアルゴリズムやデータセットで評価の結果、最大46%の高い知覚的類似性を示しました。