本論文では、新たに登場した大規模言語モデル(LLMs)を用いたゼロショットの言語横断転送について、プレフィックスベースの手法を中心に検討しています。従来、デコーダ専用のLLMsにおいて、異なる言語間でのタスク適応には課題がありましたが、ソフトプロンプトチューニングやプレフィックスチューニングなどの新しい手法を用いることで、より効率的なアプローチが可能になることを示しています。英語から35以上の高資源・低資源言語への転送実験では、プレフィックス手法が従来のLow-Rank Adaptation(LoRA)に比べて最大6%の性能向上を確認しました。また、スケールの異なるモデルサイズを用いた実験も行われ、プレフィックス手法が特に低資源のマルチリンガル設定において優れた結果を示すことが強調されています。