この記事では、ゲーム内の対話システムにおける大規模言語モデル(LLM)の限界について述べています。LLMは人間のようなテキスト生成に優れていますが、高いハードウェア要求や遅延の制約により、ゲームでの適用が困難です。提案されたのは、特定のNPCペルソナをエンコードした小規模言語モデル(SLM)を基にしたモジュラーNPC対話システムです。このシステムでは、キャラクター特有の会話コンテキストと世界知識を保存するメモリモジュールを使用し、ゲームプレイ中に再学習やモデルの再ロードなしで、長期記憶と表現豊かな対話を実現します。DistilGPT-2、TinyLlama-1.1B-Chat、Mistral-7B-Instructの3つのオープンソースSLMを用いて評価が行われ、ゲーム以外の分野への応用可能性も示唆されています。