大規模言語モデル(LLM)は、多くのコーディングタスクで優れた能力を示していますが、コードの脆弱性検出は依然として困難な課題です。本論文では、イン・コンテキスト学習(ICL)を通じてLLMの性能を向上させる方法として、適切な少数ショット例の選択が重要であることを探求しています。著者たちは、LLMによるエラーの傾向を考慮に入れた基準と、クエリ対象のプログラムとの類似性に基づいた基準の2つを提案します。具体的には、エラーを起こすサンプルとそれに類似したサンプルのk近傍を用いたアプローチを評価し、様々なデータセットとオープンソースモデルを使ってこれらの基準の効果を検証しています。最終的に、少数の例の選び方がLLMの性能向上に寄与する重要な要素であることを示しています。