TeaRAGは、外部知識を利用して大規模言語モデルの信頼性を向上させる「リトリーバル拡張生成(RAG)」の新しいフレームワークです。このフレームワークは、効率性と精度のトレードオフを解消することを目的としており、特にトークンのオーバーヘッドを削減します。具体的には、リトリーブされたコンテンツを短いトリプレットを用いたグラフリトリーバルによって圧縮し、知識関連グラフを構築します。また、推論ステップを減少させるために、知識マッチング機構を用いた報酬関数を持つ反復プロセス認識の直接好み最適化(IP-DPO)を採用します。その結果、TeaRAGは平均で4%と2%の精度向上を達成しつつ、出力トークンをそれぞれ61%と59%削減しました。この研究は、知識の効率的な使用を促進する重要な進展といえます。