本論文では、言語モデル(LM)を取り入れたグラフ基盤モデル(GFM)の台頭によって、グラフ学習に新たな視点が加わった一方で、従来のグラフニューラルネットワーク(GNN)にはない特有のセキュリティ脆弱性が存在することを示しています。特に、プロンプト調整段階でのリスクが適切に研究されていないとして、従来のグラフバックドア攻撃が属性にアクセスできない制約付きのTAGシステムで著しく性能が低下することを実証的に明らかにしました。この問題に対処するために、テキストレベルと構造レベルの両方で機能する新しいデュアルトリガーバックドア攻撃フレームワークを提案します。このフレームワークは、事前に確立されたテキストプールを利用することで、明示的なトリガーノード属性の最適化なしに効果的な攻撃を可能にします。実験評価により、我々の提案する攻撃が高い成功率を維持しつつ、優れたクリーン精度を達成することが確認されています。本研究は、LM強化GFMにおける重要なバックドアリスクを強調し、オープンソースプラットフォームのためのより強固な監視メカニズムの開発に寄与します。