エントロピー最小化(EM)は、機械学習においてクラスの重複を減らし、ドメインギャップを埋め、不確実性を制限する上で有益ですが、それには限界があります。本論文では、EMの内部メカニズムを調査し、従来のEMを対になる2つの部分に再定義します。すなわち、クラスター集約推進因子(CADF)は主なクラスを奨励し、出力分布をピークに誘導しますが、勾配緩和キャリブレーター(GMC)は予測確率に基づき高信頼性のクラスをペナルティーします。この組み合わせ形式による制約を克服するため、著者たちは適応型デカップルドエントロピーミニマイゼーション(AdaDEM)を提案し、CADFからの報酬を正規化し、GMCの代わりに限界エントロピーキャリブレーター(MEC)を用います。AdaDEMは従来のEMの上限バリアントであるDEM*を超える性能を示し、ノイズや動的環境下での不完全に監視された学習タスクにおいて優れたパフォーマンスを達成しています。