本研究では、事前学習された言語モデル(PLM)がコード関連タスクにおいて適用される中で、高次のデータ相関を考慮した新たなアプローチを提案します。具体的には、抽象構文木、レキシカル相関、および行相関の3種類の高次相関を定義し、これらを捉えるためのトークンとハイパーエッジ生成器を設計しました。さらに、ハイパーグラフニューラルネットワークのアーキテクチャを改良し、アダプターチューニングと組み合わせることで、HGAdapterという新しいハイパーグラフベースのアダプターを提案します。HGAdapterは高次データ相関をコードにエンコードでき、様々なPLMに導入可能で、その性能向上が期待されます。実験により、複数の公的データセットにおいてコード要約とクローン検出タスクの性能が向上する結果が得られ、これが高次データ相関の導入によるものであることが確認されました。