この記事では、大規模言語モデル(LLMs)がどのように文化的価値に影響を与えるかを探求しています。研究は、異なる言語でのユーザーのインタラクションを考慮し、プロンプトの言語や文化的枠組みがモデルの応答や価値観の一致に与える影響を分析しています。10種類のLLMsを使用し、63項目のHofstede Values SurveyとWorld Values Surveyを11の言語に翻訳して調査しました。その結果、プロンプトの言語や文化的視点が出力に変動をもたらすことが確認されましたが、一部の国に偏った価値観からの系統的バイアスを克服することはできませんでした。全体として、研究はLLMsが特定の文化的デフォルトにしっかりと固定されており、十分に文化的多様性を表現できないことを示しています。