この研究では、大規模言語モデル(LLM)がテキスト属性グラフを扱う際のパフォーマンスに、グラフ構造のエンコーディング戦略がどのように影響するかを調査しています。著者らは、ノードのテキスト説明のみを利用するLLMが多くのタスクで強いパフォーマンスを達成できる一方、構造的エンコーディング戦略のほとんどがわずかな利益または逆効果をもたらすことを発見しました。これは、伝統的なグラフ学習の前提、すなわち構造が常に有益であるという見解に対して重要な挑戦を提起します。この知見は、今後のグラフ学習において意味に基づく新たなアプローチを模索する必要があることを示唆しています。