arXiv cs.AI

グラフトランスフォーマーにおける時間的および構造的文脈の統合による関係性深層学習

Integrating Temporal and Structural Context in Graph Transformers for Relational Deep Learning

http://arxiv.org/abs/2511.04557v1


本稿では、医療、金融、eコマースなどの分野における関係性データの時間的動態を取り扱う新たなアプローチを提案しています。従来のグラフモデルは、主に空間的な構造に焦点を当て、時間情報を単なるフィルタリングの制約として扱っていました。これに対処するために、著者たちは、時間的に関連する関係を捕捉するために近隣以外のノードを取得する時間的サブグラフサンプラーを紹介し、さらに、構造的および時間的文脈を効率的に統合するためのグラフトランスフォーマーアーキテクチャである関係グラフパーシーバー(RGP)を提案します。RGPは、異なるノードやエッジタイプからの信号を共通の潜在空間に統合し、全体の関係システムにわたるグローバルコンテキストを構築します。実験結果は、RGPが様々な予測タスクに対して最先端の性能を示し、スケーラブルな関係性深層学習ソリューションを提供することを示しています。