この記事では、グラフニューラルネットワーク(GNN)が関係データの学習において重要なツールであることに焦点を当てているが、単一のGNNの性能は実世界のグラフに存在する異質性によって制限されることが多いと述べている。最近のMixture-of-Experts(MoE)フレームワークの進展により、異なる一般化パターンを持つ多様なGNNを組み合わせることで、パフォーマンスを大幅に向上させることができることが示されている。本研究では、GNNアンサンブルのための専門家の多様化技術に関する初の体系的な実験研究を提供し、20の多様化戦略を14のノード分類ベンチマークにわたって評価し、200以上のアンサンブルバリアントを構成・分析している。評価は専門家の多様性、補完性、アンサンブルの性能の観点から行われ、専門家を最大限に多様化するためのメカニズム的洞察も明らかにされている。これらの発見は、専門家のトレーニングとグラフデータにおける効果的なMoEフレームワークの設計に向けた実用的な指針を提供する。