本記事では、指示に対する大規模言語モデル(LLM)の遵守率を向上させる手法である『Instruction Boosting』について述べています。従来の手法では、指示を追加したり変更したりしてLLMの挙動を操作することが行われていますが、単に指示を増やしてもその遵守が保証されるわけではありません。Instruction Boostingは、生成後に指示の信頼性を高める方法であり、二つの指示では最大7ポイント、十の指示では最大4ポイントの遵守率向上が示されました。また、指示の数が増えるにつれてパフォーマンスが低下する一般的な傾向の背景には、指示間の緊張や対立が関与していることを明らかにし、定量的な対立スコアリングツールを提供しています。これにより、開発者が追加指示のモデルパフォーマンスへの影響を理解し、改善に役立てることができるようになっています。