本稿では、事前学習済みの大規模言語モデル(LLM)を効率的に調整する新たな手法「層ごとの適応型アンサンブル調整(LAET)」を提案します。金融業界での自然言語処理(NLP)の進展に伴い、BloombergGPTやFinMAなどのLLMが向上した結果、様々な金融NLPタスクにおいて新たなベンチマークが設定されました。しかし、これらのモデルは高い計算コストが課題です。LAETでは、重要な層の調整を行い、重要度の低い層は固定することで、計算負荷を大幅に軽減しながらタスク特化型の性能を向上させます。このアプローチは、GPT-4などの最先端モデルを上回る成果を示し、金融アプリケーションへの実用的かつスケーラブルなモデルの導入を目指しています。