本論文では、テキストを付与されたグラフ(TAGs)を用いたGraph Foundation Models(GFMs)の事前学習に関する問題点を解決するための新たなフレームワーク「ADAligner」を提案しています。従来のCLIPスタイルのグラフ-テキスト整列手法は、ノードとテキストの厳密な一対一対応を仮定しており、多対多の関係を無視し、さらに静的な整列目標に依存しているため、データ品質が変動することに適応できず、ノイズの多い監督下では脆弱です。ADAlignerは、監督の品質に応じて動的に多対多と一対一の目標を調整し、信頼性の高い整列を促進します。実験では、9つの多様なTAGデータセットで従来の手法を上回る性能を示し、ノイズ下でも堅牢性を保持し、事前学習の速度を2〜3倍に向上させることが確認されました。