本記事では、ロボティクスにおけるLikelihood-Free推論(LFI)の一環として、適応的なドメイン分布を扱う問題について説明しています。LFIは、サンプリングのための任意のサポートを仮定し、初期の一般的な事前分布からより具体的な事後分布へと反復的に洗練されていくプロセスを取ります。しかし、誤特定されたサポートを用いることで、効率的ではないにもかかわらず自信を持った事後分布が生じる可能性があります。この問題を克服するために、EDGE、MODE、CENTREの3種類のヒューリスティックLFIバリアントを提案し、それぞれ独自の解釈で事後モードのシフトを捉え、サポートの適応を実現します。また、動的変形線形オブジェクトの操作タスクに基づき、パラメータ推論とポリシー学習におけるヒューリスティック適応の影響を評価しました。結果として、より精密な長さおよび剛性の分類が得られ、シミュレーションに基づくポリシー学習でより堅牢なエージェントの性能が実現されました。