機械学習モデルにおける公平性の確保は重要な課題です。既存の偏り除去手法は通常、性能を損なうか静的な補正戦略に依存しており、特にマイノリティグループにおいてデータの希薄性に悩まされます。また、感度属性の利用も最適ではなく、完全な属性ラベリングに過度に依存したり、逆にそれらを全く無視したりする場合があります。これらの限界を克服するために提案されたFairNetは、動的でインスタンスレベルの公平性補正のための新しいフレームワークです。バイアス検出器と条件付き低ランク適応(LoRA)を統合し、バイアスが特定されたインスタンスのみに補正メカニズムを適用することで、偏りのないインスタンスのパフォーマンスを維持します。新しいコントラスト損失関数がLoRAモジュールのトレーニングに活用され、異なる感度グループ間の表現のばらつきを最小限に抑え、マイノリティグループの適合不足にも効果的に対処します。このフレームワークは、感度属性ラベルが完全、部分的、または全く存在しない状況を柔軟に処理できます。理論的分析により、FairNetはバイアス検出器の適度な真陽性率/偽陽性率の下で、全体のモデル性能を損なうことなく最も悪いグループの性能を向上させる可能性があることが確認されています。