ファインチューニングが再注目を浴びている。新たなツールとアプローチ、より高いコントロールの要求が、汎用的なAIから特注のAIへの移行を促す要因となっている。特に、Thinking Machines Labsの発表した「Tinker」や、Hugging FaceのClément Delangueの意見が示すように、自己管理型オープンソースの大規模言語モデル(LLM)展開が求められている。この動きは、特にLLMの初期の盛り上がりを思い起こさせる。IML時代にあったファインチューニングは一時期注目を集めたが、現在ではAI推論作業の10%未満という扱いに。しかし、2021年にMicrosoft Researchが導入したLoRA技術によって、従来の全ての層を再学習させるフルファインチューニング(FFT)のコストを削減し、パフォーマンス向上も実現している。これらの要因により、ファインチューニングが新たに重要視される可能性があることを探る記事である。