라벨 전파와 간단한 모델의 결합이 그래프 신경망을 능가한다.

그래프 신경망(GNNs)은 그래프 위에서 학습하는 주요 기술입니다. 그러나 GNNs이 실제로 성공적인 이유와 좋은 성능을 내기 위해 반드시 필요한지에 대한 이해는 아직 충분하지 않습니다. 본 연구에서는 많은 표준 추론적 노드 분류 벤치마크에서, 그래프 구조를 무시하는 얕은 모델과 라벨 구조의 상관관계를 활용하는 두 가지 간단한 후처리 단계를 결합하여 최신 GNNs의 성능을 초과하거나 일치시키는 것이 가능함을 보여줍니다. (i) "오차 상관관계"로 훈련 데이터의 잔여 오차를 테스트 데이터의 오차 수정에 전파하고, (ii) "예측 상관관계"로 테스트 데이터의 예측 값을 부드럽게 만드는 것입니다. 우리는 이를 전체적으로 정정 및 평활화(Correct and Smooth, C&S) 프로세스라고 부르며, 후처리 단계는 초기 그래프 기반 반監督 학습 방법에서 사용된 표준 라벨 전파 기술에 대한 간단한 수정으로 구현됩니다. 우리의 접근 방식은 매우 적은 매개변수와 수십 배 빠른 실행 시간으로 다양한 벤치마크에서 최신 GNNs의 성능을 초과하거나 거의 일치시키는 것으로 나타났습니다. 예를 들어, OGB-Products 데이터셋에서 우리는 137배 적은 매개변수와 100배 이상 짧은 훈련 시간으로 알려진 최고의 GNN 성능을 초과하였습니다. 이러한 방법들의 성능은 라벨 정보를 학습 알고리즘에 직접 통합하면(전통적인 기법에서 수행된 것처럼) 쉽게 그리고 실질적인 성능 향상을 이룰 수 있음을 강조합니다. 또한 우리의 기법들을 큰 GNN 모델에 통합하여 소폭의 성능 개선을 제공할 수도 있습니다. OGB 결과에 대한 우리의 코드는 https://github.com/Chillee/CorrectAndSmooth 에서 확인할 수 있습니다.