arXiv cs.AI

大規模言語モデル間の直接的な意味通信:ベクター翻訳によるアプローチ

Direct Semantic Communication Between Large Language Models via Vector Translation

http://arxiv.org/abs/2511.03945v1


この記事では、多エージェント環境における大規模言語モデル(LLM)の間のコミュニケーションの効率化について述べています。従来、LLMはトークンを通じてメッセージを送信し、意味の多くを捨ててしまいました。これにより情報転送が制約され、計算のオーバーヘッドが増大します。本研究では、ベクター翻訳を使用して潜在的な橋を形成し、表現空間間の直接的な意味交換を可能にする学習されたマッピングを提案します。Llama-2-7BとMistral-7B-Instructの間でトレーニングされた二重エンコーダー翻訳器は、平均コサイン整合性が0.538に達しました。翻訳されたベクターを30%の混合強度で注入することで、ターゲットモデルの生成を安定させながら誘導できます。双方向評価により一般的モデルはより移転可能な表現を提供することが示され、今回のアプローチがAIシステム間での意味の共有を可能にすることが確認されました。