本論文では、関連するソースタスクからの歴史的知識を活用して、ターゲットタスクにおけるベイズ最適化(BO)の加速方法を研究します。従来の研究では、知識伝達を用いたBOが理論的保証を欠いていたり、ノン・トランスファー設定と同様の後悔値を達成していました。しかし、著者たちはDeltaBOアルゴリズムを提案し、ソース関数とターゲット関数の差分関数を用いた新しい不確実性評価アプローチを導入しました。このアプローチにより、DeltaBOの後悔値は、特定の条件下で、ターゲット評価の数に比べてソースタスクの評価数が大きい場合において改善されることを証明しました。実世界のハイパーパラメータチューニングや合成関数における実験結果は、DeltaBOが従来のベースライン手法よりも優れていることを示しています。