GCNH: 이질적 그래프에서 표현 학습을 위한 간단한 방법

그래프 신경망 (GNNs)는 동질성 그래프에서 학습에 적합합니다. 즉, 같은 유형의 노드가 경향적으로 연결되는 그래프에서 잘 작동합니다. 그러나 이질성 그래프에서 일관된 GNN 성능을 달성하는 것은 여전히 개방된 연구 문제입니다. 최근 연구에서는 이질성 그래프에서의 성능 향상을 위해 표준 GNN 아키텍처의 확장을 제안하였으나, 모델 단순성을 예측 정확도로 교환하면서 이러한 모델들은 기본적인 그래프 속성(예: 이웃 라벨 분포)을 포착하지 못하는 경우가 많습니다. 이러한 속성은 학습에 필수적입니다.본 연구에서는 이질성과 동질성 시나리오 모두에 적용 가능한 간단하면서도 효과적인 GNN 아키텍처인 이질성용 GCN (GCNH, Graph Convolutional Network for Heterophily)을 제안합니다. GCNH는 각 노드와 그 이웃들의 별도 표현을 학습하고 결합하며, 각 층마다 하나의 학습된 중요도 계수를 사용하여 중심 노드와 이웃들의 기여도를 균형 있게 조절합니다. 우리는 8개의 실제 세계 그래프와 다양한 정도의 이질성을 가진 일련의 합성 그래프에서 광범위한 실험을 수행하여, GCNH 설계 선택이 일반적인 GCN보다 크게 개선됨을 보여주었습니다.또한, GCNH는 8개 벤치마크 중 4개에서 훨씬 더 복잡한 최신 모델들을 능가하며, 나머지 데이터셋에서도 유사한 결과를 생성하였습니다. 마지막으로, 우리는 GCNH의 낮은 복잡성이 다른 방법들보다 적은 학습 가능한 매개변수와 더 빠른 훈련 시간을 초래함을 논의하고 분석하며, GCNH가 과평활화(oversmoothing) 문제를 완화시키는 방식을 설명합니다.