本研究では、インコンテキスト学習(ICL)の能力を活かし、大規模言語モデル(LLM)が入力出力の幾つかの例に基づいて新たなタスクを遂行するためのコスト効率的な二段階パイプラインを提案します。このアプローチでは、まず利用可能なタスク横断的な例を使用してLLMを促し、ターゲットタスクの小規模なインスタンスに擬似ラベルを付与します。次に、グラフベースのラベル伝播法を導入し、追加のLLMクエリなしで残りのターゲット例にラベル情報を広げます。この結果得られた完全に擬似ラベル付けされたデータセットは、ICL用のタスク内デモンストレーションを構築するために使用されます。この手法は、タスク横断的な監視の柔軟性とLLMなしの伝播のスケーラビリティを組み合わせており、実験からは強力なパフォーマンスを発揮しながらラベリングコストを低減できることが示されました。