ARC-エンコーダーは、大規模言語モデル(LLM)のコストを削減するために、コンテキストを連続的な表現に圧縮する手法を提案します。従来の手法では、特定のモデルをファインチューニングまたはアーキテクチャの修正が必要でしたが、ARCエンコーダーはこれを回避し、トークン埋め込みを置き換える連続的な表現を生成します。実験では、ARC-エンコーダーは連続的表現をテキストトークンの約4~8倍少なく出力しながら、さまざまな使用シナリオで最先端のパフォーマンスを達成。さらに、複数のデコーダーに同時に適応できることで、異なるLLM間での一般化が可能な柔軟で効率的なソリューションを提供します。この研究は、LLMの利用における計算効率の向上に寄与することが期待されます。