
그래프 컨볼루션 네트워크(Graph Convolutional Networks, GCNs)는 그래프 정점의 표현을 학습하는 데 있어 중요한 도구가 되었습니다. GCNs를 대규모 그래프에 적용하는 주요 과제는 계층 간 제어할 수 없는 이웃 확장으로 인해 계산과 메모리에서 큰 비용이 발생하는 스케일 문제입니다. 본 논문에서는 적응형 계층별 샘플링 방법을 개발하여 GCNs의 학습 속도를 가속화합니다. 상위에서 하위로 순차적으로 네트워크를 구성하면서, 상위 계층을 조건으로 하여 하위 계층을 샘플링합니다. 여기서 샘플링된 이웃은 다른 부모 노드들 사이에서 공유되며, 고정된 크기의 샘플링 덕분에 과도한 확장을 피할 수 있습니다. 더욱重要的是,所提出的采样器具有自适应性,并适用于显式方差减少,从而增强我们方法的训练效果。此外,我们提出了一种新颖且经济的方法,通过应用跳跃连接来促进远距离节点之间的消息传递。在多个基准测试上的大量实验验证了我们的方法在分类准确性方面的有效性,并且具有更快的收敛速度。注:最后一段中的句子“更重要的是,所提出的采样器具有自适应性,并适用于显式方差减少,从而增强我们方法的训练效果。”在翻译成韩文时需要特别注意其专业性和流畅度。更加流畅和专业的翻译如下:더욱 중요하게도, 제안된 샘플러는 적응적이며 명시적 분산 감소(explicit variance reduction)에 적용 가능하여, 이는 다시금 우리 방법의 학습을 향상시킵니다. 또한, 점프 연결(skip connections)을 적용하여 먼 거리의 노드 간 메시지 전달을 촉진하는 새로운이고 경제적인 접근법을 제안합니다. 여러 벤치마크에서 수행된 집중적인 실험이 우리의 방법이 분류 정확성 면에서 효과적이며 더 빠른 수렴 속도를 보임을 입증하였습니다.