Federated Learning(FL)は、データプライバシーを保護しつつ分散デバイス上での協力的なモデル訓練を可能にしますが、エネルギー効率と公正な参加を確保しながら高いモデル精度を維持することは難しい課題です。本記事では、これらの課題に対処するために、更新の大きさと圧縮率を考慮した貢献スコアを統合し、デバイス選択、帯域幅割り当て、圧縮レベルの共同最適化を行う「FairEnergy」というフレームワークを提案しています。この問題は、バイナリ選択変数を緩和し、ラグランジュ分解を適用することで解決され、最終的にデバイスごとの最適化が行われます。実験結果から、FairEnergyはベースライン戦略と比べて精度を向上させ、エネルギー消費を最大79%削減することが示されました。