
그래프 신경망(GNNs)은 그래프 딥러닝 분야에서 큰 주목을 받고 있다. 그러나 최근의 연구들은 경험적 및 이론적으로 깊은(deep) GNN이 과적합(over-fitting)과 과도한 스무딩(over-smoothing) 문제를 겪는다는 것을 밝혀냈다. 기존의 해결 방법들은 깊은 GNN의 긴 실행 시간 문제를 해결하지 못하거나, 그래프 컨볼루션을 동일한 특성 공간 내에서만 제한하게 된다. 본 연구에서는 다양한 특성 공간에서 다층 일반화된 그래프 확산을 수행하면서도 적절한 복잡도와 실행 시간을 유지하는 적응형 그래프 확산 네트워크(Adaptive Graph Diffusion Networks, AGDNs)를 제안한다. 기존의 표준 그래프 확산 방법은 전이 행렬의 크고 밀도 높은 거듭제곱을 미리 정의된 가중치 계수와 결합하지만, AGDNs는 더 작은 다단계(multi-hop) 노드 표현을 학습 가능한 일반화된 가중치 계수와 결합한다. 이를 통해 다단계 정보를 효과적으로 포착하기 위해 두 가지 확장 가능한 가중치 계수 메커니즘을 제안한다: 단계별 주의(Attention, HA)와 단계별 컨볼루션(HC). AGDNs는 반감지적 노드 분류 및 링크 예측 작업을 수행하는 다양한 도전적인 Open Graph Benchmark(OGB) 데이터셋에서 평가되었다. 제출일(2022년 8월 26일 기준)까지 AGDNs는 ogbn-arxiv, ogbn-proteins, ogbl-ddi 데이터셋에서 1위 성능을 기록하였으며, ogbl-citation2 데이터셋에서는 3위 성능을 달성하였다. 유사한 Tesla V100 GPU 카드 환경에서, AGDNs는 ogbn-proteins 데이터셋에서 RevGNNs보다 복잡도는 13%, 학습 실행 시간은 1%로 훨씬 효율적이며, SEAL과 비교했을 때 학습 시간은 36%, 추론 시간은 0.2%에 불과하면서도 유사한 성능을 달성하였다.