
기존의 스펙트럴 그래프 컨볼루션 연산자를 기반으로 한 그래프 신경망(GNN)은 깊은 아키텍처를 가진 모델에서 특히 흔한 성능 저하 문제로 인해 비판받아 왔다. 본 논문에서는 기존 GNN 모델들이 겪는 ‘정지 상태 문제(suspended animation problem)’를 추가로 규명한다. 이 문제는 모델의 깊이가 정지 상태 한계에 도달할 때 발생하며, 이후 모델이 학습 데이터에 더 이상 반응하지 않고 학습 불가 상태에 빠지게 된다. 본 논문에서는 기존 GNN 모델의 정지 상태 문제 발생 원인에 대한 분석을 제시할 뿐만 아니라, 이 문제에 영향을 미칠 수 있는 여러 부수적 요인들에 대해서도 보고한다. 문제 해결을 위해 본 논문에서는 GResNet(Graph Residual Network) 프레임워크를 제안한다. 이 프레임워크는 그래프의 모든 모델 레이어에 걸쳐 노드의 원시 특징 또는 중간 표현을 광범위하게 연결된 하이웨이(highway) 구조를 통해 통합함으로써, 정보 흐름을 안정적으로 유지한다. 다른 학습 설정과 달리, 그래프 데이터 내 광범위한 연결 구조는 기존의 단순한 잔차 학습 방법이 효과를 발휘하지 못하게 한다. 본 논문에서는 노름 보존(norm preservation) 관점에서 제안된 새로운 그래프 잔차 항의 효과를 입증하며, 이는 연속적인 레이어 간 노드 표현의 급격한 변화를 방지하는 데 기여한다. 또한 GCN, GAT, LoopyNet 등 다양한 기존 GNN 모델에 대해 GResNet 프레임워크의 적용을 심층적으로 연구하였으며, 실제 세계의 기준 데이터셋을 활용한 광범위한 실험을 통해 그 성능을 검증하였다.