本論文では、プロンプト最適化の重要性を説きつつ、従来の手法が持つ課題を解決するための新しいフレームワーク「DelvePO」を提案しています。従来の方法では、LLM(大規模言語モデル)がランダムなリライト能力に依存しており、特定の影響因子に集中することで局所最適に陥りやすく、最適化されたプロンプトのパフォーマンスが不安定であるため、さまざまなタスクへの転送性が制限されるという問題があります。DelvePOでは、プロンプトを異なる要素に分解し、異なるタスクへの影響を探ることができる仕組みを導入します。また、作業メモリを利用してLLMが自らの不確実性に対処し、新しいプロンプト生成のための重要な洞察を得ることを目的としています。実験の結果、DelvePOは従来の最先端手法を一貫して上回り、その効果と転送性を実証しています。