arXiv cs.AI

なぜ多言語推論ギャップが推論言語モデルで生じるのか?

Why Do Multilingual Reasoning Gaps Emerge in Reasoning Language Models?

http://arxiv.org/abs/2510.27269v1


この研究は、推論言語モデル(RLM)が多言語推論ギャップを抱える理由を探ります。RLMは複雑な推論タスクで高い性能を発揮する一方で、高リソース言語に比べて低リソース言語での性能が劣るという現象が見られます。このギャップの背後にある原因はまだ明らかにされていませんが、著者らは、この問題が主に言語理解の失敗に起因していることを示しています。つまり、モデルが多言語の入力を主流の言語(英語)として適切に理解できないことが、このギャップを引き起こしているのです。理解の失敗を特定する方法を検討した結果、監視されたアプローチが最も効果的であることが確認されました。また、著者らは「選択的翻訳」と呼ばれる戦略を提案し、理解の失敗が検出された場合にのみ多言語入力を英語に翻訳することで、推論ギャップを縮小することに成功しました。実験結果から、このアプローチは高い翻訳性能を示し、多言語推論の公平性向上に寄与する可能性を示しています。