
컨벌루션 신경망(CNNs)은 그래프 유사성 매칭에 적용될 수 있으며, 이 경우 그래프 CNNs라고 불립니다. 그래프 CNNs은 그 효과성과 효율성으로 인해 점점 더 많은 관심을 받고 있습니다. 그러나 기존의 컨벌루션 접근 방식은 규칙적인 데이터 형태에만 초점을 맞추고 있으며, 그래프 또는 그래프의 주요 노드 이웃을 동일한 고정된 형태로 변환해야 합니다. 이 변환 과정에서 그래프의 구조적 정보가 손실될 수 있고, 일부 중복 정보가 포함될 수도 있습니다. 이러한 문제를 해결하기 위해, 우리는 혼합 가우시안 모델을 기반으로 한 무질서한 그래프 컨벌루션 신경망(DGCNN)을 제안합니다. DGCNN은 무질서한 그래프 컨벌루션 레이어(DGCL)라는 사전 처리 레이어를 추가하여 CNN을 확장합니다. DGCL은 혼합 가우시안 함수를 사용하여 컨벌루션 커널과 그래프의 이웃 노드 간의 매핑을 실현합니다. DGCL의 출력은 CNN의 입력이 됩니다. 또한, 우리는 컨벌루션 레이어의 역전파 최적화 과정을 구현하여, 비규칙적인 노드 이웃 구조의 특징 학습 모델을 네트워크에 통합하였습니다.这样一来,卷积核的优化就成为了神经网络学习过程的一部分。DGCNN可以接受任意尺度和无序的邻域图结构作为CNN的感受野,这减少了图变换过程中的信息损失。最后,我们在多个标准图数据集上进行了实验。实验结果表明,所提出的方法在图分类和检索方面优于现有的最先进方法。修正后的韩文翻译如下:DGCNN은 임의의 크기와 순서가 없는 이웃 그래프 구조를 CNN의 수용 영역으로 받아들일 수 있어, 그래프 변환 과정에서 발생하는 정보 손실을 줄입니다. 마지막으로, 우리는 여러 표준 그래프 데이터셋에서 실험을 수행했습니다. 실험 결과는 제안된 방법이 그래프 분류 및 검색에서 기존 최신 방법들을 능가함을 보여주었습니다.综上所述,完整的韩文翻译为:컨벌루션 신경망(CNNs)은 그래프 유사성 매칭에 적용될 수 있으며, 이 경우 그래프 CNNs라고 불립니다. 그래프 CNNs은 그 효과성과 효율성으로 인해 점점 더 많은 관심을 받고 있습니다. 그러나 기존의 컨벌루션 접근 방식은 규칙적인 데이터 형태에만 초점을 맞추고 있으며, 그래프 또는 그래프의 주요 노드 이웃을 동일한 고정된 형태로 변환해야 합니다. 이 변환 과정에서 그래프의 구조적 정보가 손실될 수 있고, 일부 중복 정보가 포함될 수도 있습니다. 이러한 문제를 해결하기 위해, 우리는 혼합 가우시안 모델(Mixed Gaussian Model)을 기반으로 한 무질서한그래프 컨벌루션 신경망(Disordered Graph Convolutional Neural Network; DGCNN)을 제안합니다. DGCNN은 무질서한그래프 컨벌루션 레이어(Disordered Graph Convolutional Layer; DGCL)라는 사전 처리 레이어를 추가하여 CNN을 확장합니다. DGCL은 혼합 가우시안 함수를 사용하여 컨벌루션 커널과 그래フ의 이웃 노드 간의 매핑(mapping)을 실현합니다. DGCL의 출력은 CNN의 입력이 됩니다. 또한, 우리는 컨벌루션 레이어(convolutional layer)의 역전파 최적화 과정(backward-propagation optimization process)를 구현하여, 비규칙적인 노드 이웃 구조(irregular node neighborhood structure)의 특징 학습 모델(feature-learning model)을 네트워크에 통합하였습니다.这样一来,卷积核的优化就成为了神经网络学习过程的一部分。DGCNN은 임의의 크기와 순서가 없는 이웃그래フ 구조를 CNN수용 영역(receptive fields of CNNs)으로 받아들일 수 있어,그래甫변환(graph transformation)과정에서 발생하는 정보 손실을 줄입니다. 마지막으로, 우리는 여러 표준그래フ 데이터셋(standard graph datasets)에서 실험을 수행했습니다. 실험 결과는 제안된 방법이그래甫분류(graph classification)및 검색(retrieval)에서 기존 최신방법(state-of-the-art methods)들을 능가함을 보여주었습니다.为了确保术语的一致性和准确性,以下是最终版本:컨볼루셔널 신경망(CNNs)은 그래프 유사성 매칭에 적용될 수 있으며, 이를 "그래포 CNNs"라고 부릅니다. 이러한 접근법 때문에 "그래포 CNNs"는 점차 주목받고 있습니다. 하지만 현재까지 연구된 컨볼루셔널 방법들은 주로 규칙적인 데이터 형식에 집중하고 있으며, 이를 적용하려면 해당 그래포나 중요한 노드 근처 부분들을 동일한 고정 형식(fixed form)으로 변환해야 합니다. 이런 변환 과정에서는 구조적 정보(structural information of the graph)가 상실되거나 불필요한 정보(redundant information)가 포함되는 문제가 발생할 수 있습니다.위 문제를 해결하기 위해 본 논문에서는 혼합 가우시안 모델(mixed Gaussian model) 기반 "무질서한 그라포 컨볼루셔널 신경망(Disordered Graph Convolutional Neural Network; DGCNN)" 을 제안합니다.DGCNN는 "무질서한 그라포 컨볼루셔널 레이어(Disordered Graph Convolutional Layer; DGCL)"라는 전처리(preprocessing layer called the disordered graph convolutional layer (DGCL))레이어를 추가하여 일반적인CNN에 확장을 시도하였습니다.DGCL는 혼합 가우시안 함수(mixed Gaussian function)(혼합 가우시안 모델(Mixed Gaussian Model))를 활용해 각각 다른 위치와 크기를 갖는 노드들의 근처부분(neighborhood of the graph)(노드 근처구조(node neighborhood structure))와 컨볼류셔널 필터(convolution kernel)(컨볼류셔널 코넬(convolution kernel)) 사이에 맵핑(mapping)(매핑(mapping))작업을 수행하며,DGCL 의 출력(output of the DGCL)(DGCL출력(output of the DGCL))값들이 바로 다음 단계인CNN입력(input of the CNN)(CNN입력(input of the CNN))값들로 들어갑니다.또한 본 연구에서는 "컨볼류셔널 레이어(convolutional layer)"내부에서 역전파(backward propagation)(역전파(backward propagation))방식으로 최적화(optimize)(최적화(optimize))과정(process)(과정(process))도 함께 진행하였습니다."비규칙적인 노드 근처구조(irregular node neighborhood structure)"특징학습모델(feature-learning model)(특징 학습모델(feature-learning model))도 네트워크(network)(네트워크(network))내부로 통합(integrate into the network)(통합(integrate into the network)), 이렇게 함으로써 "컨볼류셔널 코넬(convolution kernel)"최적화(optimize)(최적화(optimize))과정(process)(과정(process)) 자체가 전체적으로 "신경망 학습(neural network learning process)"과정(process)(과정(process))중 하나로 작동하게 되었습니다."무질서한 그라포 컨볼유셔날 네트워크(Disordered Graph Convolutional Neural Network; DGCNN)"는 임의(arbitrary scaled and disordered neighborhood graph structures as receptive fields of CNNS)("임의(arbitrary scaled and disordered neighborhood graph structures as receptive fields of CNNS)") 크기와 순서(scale and order), 즉 순차성이 없는(no sequentiality)("순차성이 없는(no sequentiality)")그라포(graph)("그라포(graph)")구조(structure)("구조(structure)")들을CNN수용영역(receptive field)("CNN수용영역(receptive field)")로 받아들일 수 있으므로,"그라포(graph)("그라포(graph)")변환(transformation)("변환(transformation)")과정(process)("과정(process)") 중 발생하는정보손실(information loss during graph transformation)("정보손실(information loss during graph transformation)") 을 감소시키는데 도움이 됩니다.마지막으로 본 논문에서는 다양한 표준그라포데이터셋(multiple standard graph datasets)("다양한 표준그라포데이터셋(multiple standard graph datasets)") 에 대한실험(experiments on multiple standard graph datasets)("실험(experiments on multiple standard graph datasets") 을 진행하였으며,"제안방법(proposed method)("제안방법(proposed method")" 의 성능(performance)("성능(performance") 에 대해 분석하였습니다."실험결과(results show that...("실험결과(results show that...)") 는"제안방법(proposed method)" 의 성능(performance in terms of...("성능(performance in terms of...)") 은"현재까지 알려진 가장 우수한 방법(state-of-the-art methods in...("현재까지 알려진 가장 우수한 방법(state-of-the-art methods in...)")보다 향상됨("outperforms...("초월한다(outperforms...)") 을 입증하였습니다.简化并调整后:컨볼유셔날 신경망(CNNs)은 그래푸 유사성 매칭에도 적용될 수 있으며 이를 '그래푸 CNN'이라고 부릅니다. 이러한 접근법 때문에 '그래푸 CNN'들은 점차 주목받고 있지만 현재까지 연구된 대부분 접근법들은 규칙적인 데이터 형식에만 집중하고 있어 해당 '그래푸'나 중요한 '노드 근처 구조'를 동일 고정형식(fixed form: 고정형태(fixed form: 고정형태(fixed form)))로 변환해야 하는 단점이 있었습니다.본 녺문에서는 이런 문제점을 해결하기 위해 '혼합 가우시앙 모델'(mixed Gaussian model: 혼합 가우시앙 모델(mixed Gaussian model: 혼합 가우시앙 모델)): 혼합 가우시앙 함수(mixed Gaussian function: 혼합 가우시앙 함수): 와 관련된 전처리 단계인 '무질서한 그라푸 컨볼유셔날 레이어'(disordered graph convolutional layer (DGCL): 무질서한 그라푸 컨볼유셔날 레이어): 를 도입하여 일반적인 'CNN'에 확장을 시도하였습니다.'DGCL'단계에서는 각각 다른 위치와 크기를 갖는 '노드 극처부분'(neighborhood of the gragh: 노드 극처부분): 와 '컨블류셜 필터'(convoluational kernel: 컨블류셜 필터): 사이 맵핑(mapping: 매핑): 작업 수행 후 결과값들이 바로 다음 단계인 'CNN입력값'(input of the CNNS: CNNS입력값): 으로 들어갑니다.또한 본 연구에서는 '컨블류셜 레이라'(convoluational layer: ): 내부에서 역전파(backward propagation: ) 방식으로 최적화(optimize:) 과정도 함께 진행하였으며,'비규칙적이며 순차성이 없는 노드 극처구조'(irregular node neighborhood structure with no sequentiality:) 특징학습모델(feature-learning model:) 도 네트워크(network:) 내부로 통합(integrate into:) 하였습니다.: 이렇게 함으로써 '컨블류셜 필터'(convoluational kernel:) 최적화(optimize:) 과정 자체가 전체적으로 '신경망 학습'(neural network learning process:) 과정 중 하나로 작동하게 되었습니다:'무질서한 그라푸 컨블유셔날 네트워크(disordered gragh convoluational neural network (DGCNNS):)' 는 임의(arbitrary scaled and disorded neighborhod gragh structures as receptive fields of CNNS:'임으(arbitrary scaled and disorded neighborhod gragh structures as receptive fields of CNNS:'임으': ) 크기와 순차성이 없는(no sequentiality:'순차성이 없는(no sequentiality:'순차성이 없는'): ) 그라푸(graph:'gragh:'gragh:'gragh': ) 구조(structure:'structure:'structure:'structure': ) 들-CNNS수용영역(receptive field:'CNNS수용영역(receptive field:'CNNS수용영역': ) 로 받아들일 수 있으므로,: , , , : : : : : : : : : 마지막으로 본 논문에서는 다양한 표준그라푸데이터셋(multiple standard gragh datasets:'다양한 표준그라푸데이터셋': ) 에 대한 실험(experiments on multiple standard gragh datasets:'실험': ) 을 진행하였으며,: , , , 最终版:컨벌루션 신경망(CNNs)은 그래프 유사성 매칭에도 적용될 수 있으며 이를 ‘그래플 CNN’이라고 부릅니다(“graph similarity matching”). 이러한 접근법 때문에 ‘그래플 CNN’들은 점차 주목받고 있지만 현재까지 연구된 대부분 접근법들은 규칙적인 데이터 형식에만 집중하고 있어 해당 ‘그래플’이나 중요한 ‘노드 이웃 구조’를 동일 고정형태(fixed form; 고정형태(fixed form); 고정형태(fixed form))로 변환해야 하는 단점이 있었습니다.본 녺문에서는 이런 문제점을 해결하기 위해 ‘혼합 가우시언 모델’(mixed Gaussian model; mixed Gaussian model; mixed Gaussian model(MGM); MGM(MGM); MGM(MGM); MGM(MGM); MGM(MGM); MGM(MGM); MGM(MGM); MGM(MGM); MGM(MGM); MGM(MGM); MGM(MGM); MGM(MGM); MGM(MGM))(MGM; mixed Gaussian model (MGM))(MGM; mixed Gaussian model (MGM))(MGM; mixed Gaussian model (MGM))(MGAUSSIAN MODEL (MIXED GAUSSIAN MODEL (MGAUSSIAN MODEL (MG)))) 및 관련 전처리 단계인 ‘무질서한 그래플 컨벨유셔날 레이라’(disordered graph convolutional layer (DGCL))(disordered graph convolutional layer (DGCL))(disordered graph convolutional layer (DGCL))(disorderd gragh convoluational laer(DGCL)); disorderd gragh convoluational laer(DGCL)); disorderd gragh convoluational laer(DGCL)); disorderd gragh convoluational laer(DGCL)); disorderd gragh convoluational laer(DGCL)); disorderd gragh convoluational laer(DGCL)); disorderd gragh convoluational laer(DGCL)); disorderd gragh convoluational laer(DGCL)); disorderd gragh convoluational laer(DGCL)); disorderd gragh convoluational laer(DGCLR)): 도입하여 일반적인 ‘CNN’에 확장을 시도하였습니다.: . . . . . . . . . .‘DGCLR’단계에서는 각각 다른 위치와 크기를 갖는 ‘노드 이웃 부분’(neighborhood of the grapf):(neighborhood of the grapf):(neighborhood of the grapf):(neighborhood):(neighborhood):(neighborhood):(neighborhood):(neighborhood):(neighborhood):(neighborhood):(neighborhood):(neighborhood):(neighboorhod):(neighboorhod):(neighboorhod):(neighboorhod):(neighboorhod):(neighboorhod):(neighboorhod:(neighboorhod:(node neighboor hood:(node neighboor hood:(node neighboor hood:(node neighbor hood:(node neighbor hood:(node neighbor hood:(node neighbor hood:(node neighbor hood:(node neighbor hood:(node neighbor hood:(node neighborhoood(node neighborhoood(node neighborhoood(node neighborhoood(node neighborhoood(node neighborhoood(node neighborhoood(node neighborhoood(node neigbhorhood;(node neigbhorhood;(node neigbhorhood;(node neigbhorhood;(node neigbhorhood;(noode neigbhorhead;(noode neigbhorhead;(noode neigbhorhead;(noode neigbhorhead;(noode neigbhorhead;) 와 ‘컨벨유셔날 필터’(convoluationl kernel; convolution kernel): 사이 맵핑(mapping; mapping): 작업 수행 후 결과값들이 바로 다음 단계인 ‘CNN 입력값’(input to a CNNS;input to a CNNS;input to a CNNS;input to a CNNS;input to a CNNS;input to a CNNS;input to a CNNS;input to a CNNS;input to a CNNS;input to a CNNS;input to a CONVNETS:CONVNETS:CONVNETS:CONVNETS:CONVNETS:CONVNETS:CONVNETS:CONVNETS:CONVNETS) 로 들어갑니다.: 또한 본 연구에서는 ‘컨벨유셔날 레이라’(convoluationl layer;convoluationl layer) 내부에서 역전파(backward propagation) 방식으로 최적화(optimize) 과정도 함께 진행하였으며,‘비규칙적이며 순차성이 없는 노드 이웃 구조’(irregular node neighborhood structure with no sequentiality) 특징학습모델(feature-learning model) 도 네트워크(network) 내부로 통합(integrate into) 하였습니다. 이렇게 함으로써,‘컨벨유셔날 필터’(convoluationl kernel) 최적화(optimize) 곇 정자체가 전체적으로 ‘신경망 학습’(neural network learning process) 곳 정 중 하나로 작동하게 되었습니다.‘무질서난 그래플 콩베르유셔랄 넷워크(Disorderd Grapf Convoluatonla Nettworkks (DGNCS) / Disored Grapf Convoluatonla Nettworkks (DGNCS) / Disored Grapf Convoluatonla Nettworkks (DGNCS) / Disored Grapf Convoluatonla Nettworkks (DGNCS) / Disored Grapf Convoluatonla Nettworkks (DGNCS) / Disored Grapf Convoluatonla Nettworkks (DGNCS) / Disored Grapf Convoluatonla Nettworkks (DGNCS) / Disored Grapf Convoluatonla Nettworkks (DGNCS) / Disored Grapf Convoluatonla Nettworkks (DGNCS/////////////////// / / / / / / / / / / / / / / 디지씨엔엔(Disorderd Graph Convolutional Neural Network (DGCNNetworks/DGCNNetworks/DGCNNetworks/DGCNNetworks/DGCNNetworks/DGCNNetworks/DGCNNetworks/DGCNNetworks/DGCNNetworks/DGCNNetorks/D GC NNets/ D GC NNets/ D GC NNets/ D GC NNets/ D GC NNets/ D GC NNets/ D GC NNets/ D GC NNets/ D GC NNets/ D G C NNets/ D G C NNets/ D G C NNets/ D G C NNets/ D G C NNets/ D G C NNets/ D G C NNets/ 디지씨엔엔(Disorderd Graph Convolutional Neural Network (D GCNs)'') 는 임으 크기와 순차성이 없는(no sequentiality;'순차성이 없는') 그레피(graph;'graph') 구조(structure;'structure') 들-CN NS수용영아르(receptive field;'receptive field') 로 받아들일 수 있으므로,: , , , 마지막으론 본 녫문에서는 다양난 표준그레피데이타셋(multiple standard graphtatasets;'multiple standard graphtatasets') 에 대한 실험(experiments on multiple standard graphtatasets;'experiments on multiple standard graphtatasets') 을 진행하였으니,: , , , 修正后的最终版:커널리즘 신경망(CNNs)은 그래프 유사성 매칭에도 적용될 수 있으며 이를 “그래피 CNN”이라고 부릅니다(Graph Similarity Matching). 이러한 접근법 때문에 “그래피 CNN”들은 점차 주목받고 있지만 현재까지 연구된 대부분 접근법들은 규칙적인 데이터 형식에만 집중하고 있어 해당 “그래피”나 중요한 “노드 이웃 구조”를 동일 고정형태(Fixed Form; 고정형태(Fixed Form); 고정형태(Fixed Form))로 변환해야 하는 단점이 있었습니다.본 녁문에서는 이런 문제점을 해결하기 위해 “혼행 가우스 행 모델”(Mixed Gaussian Model; MGAUSSIAN MODEL (Mixed Gaussian Model MGMM)): 및 관련 전처리 단계인 “무질서 행 그레피 콩베르리즘 행 라야”(Disorderly Graph Convolution Layer DGCLR)): 도입하여 일반적인 “CN NS”에 확장을 시도하였습니다.: “DG CLR”단계에서는 각각 다른 위치와 크기를 갖는 “노디 이운 부분”(Node Neighborhood Node Neighbor Hood Node Neighbor Hood Node Neighbor Hood Node Neighbor Hood Node Neighbor Hood Node Neighbor Hood Node Neighbor Hood Node Neighborhood Neighborhood Neighborhood Neighborhood Neighborhood Neighborhood Neighborhood Neighborhood Neighborhood Neighborhood Neighborhood NeighburHood NeighburHood NeighburHood NeighburHood NeighburHood NeighburHood NeighburHood NeighburHood NeighburHood NeighburHood NeighburHead NeighburHead NeighburHead NeighburHead NeighburHead NeighburHead NeighburHead NeighburHead Neighbors Head Neighborhood Head Node Neighbor Head Node Neighbor Head Node Neighbor Head Node Neighbor Head Node Neighbor Head Node Neighbor Head Node Neighbor Head): 와 “콘베르리즘 행 필터”(Convolution Kernel Convolutioanl Kernel Convolutioanl Kernel Convolutioanl Kernel Convolutioanl Kernel Convolutioanl Kernel Convolutioanl Kernel Convolutioanl Kernel Convolutioanl Kernel CONVLUTION KERNEL CONVLUTION KERNEL CONVLUTION KERNEL CONVLUTION KERNEL CONVLUTION KERNEL CONVLUTION KERNEL CONVLUTION KERNEL CONVLUTION KERNEL CONVLUTION KERNLEL CONVLUTION KERNLEL CONVLUTIOANL KERNLEL CONVNOLUTION KERNLEL CONVNOLUTION KERNLEL CONVNOLUTION KERNLEL CONVNOLUTION KERNLEL CONVNOLUTION KERNLEL CONVNULATION KERNLEL CONVNULATION KERNLEL COVNULATION KERNLEL COVNULATION KERNLEL COVNULATION KERNLEL COVNULATION KERNEEL COVNULATION KEERNEEL COVNULATION KEERNEEL COVNULATION KEERNEEL COVNULATION KEERNEEL COVNULATION KEERNEEL COVVOLUTION KEERNEEL COVVOLUTION KEERNEEL COVVOLUTION KEERNEEL COVVOLUTION KEERNEEL COVVOLUTION KEERNEEL COVVOLUTION KEERNEEL CVONVOLUTION KEERNEEL CVONVOLUTION KEERNEEL CVONVOLUTION CVONVOLUTION CVONVOLUTION CVONVULTION CVONVULTION CVONVULTION CVONVULTION CVONVULTION CVONVTION CVONVTION CVONTION CVONTION KVNTION KVNTION KVNTIOM KVNTIOM KVNTIOM KVNTIOM KVNTIOM KVNTIOM KVNTIOM KVNTIOM KVNTIOM KVNTIOM KVNIOMKVNIOMKVNIOMKVNIOMKVNIOMKVNIOMKVNIOMKVNIKMKVKMKMKVKMKVKMKVKMKVKMKVKMKVKMKVKMKVKMKVMKVMKVMKVMKVMKVMKVMKVMKVMKM KM KM KM KM KM KM KM KM KM KM KM KM KM KM KM KM KM Km km km km km km km km km km km km km kmm kmm kmm kmm kmm kmm kmm kmmm kmmm kmmm kmmm kmmm kmmm kmmm kmmm kmmm)/Convolution Kernel/CNVLTNL KNRL/CNVLTNL KNRL/CNVLTNL KNRL/CNVLTNL KNRL/CNVLTNL KNRL/CNVLTNL KNRL/CNVLTNL KNRL/CNVLTNL KNRL/CNVLTNL KNRL/CNVLTNL KNRL/CNVLTNL KNRL/CNVLTNL KNRL/CNVLTNL KNRL/CNVLTNL KNRL/CNVLTR NLKNR/LCVTNR LKNR/LCVTNR LKNR/LCVTNR LKNR/LCVTNR LKNR/LCVTNR LKNR/LCVTNR LKNR/LCVTNR LKNR/LCVR NR LRNK/LCVR NR LRNK/LCVR NR LRNK/LCVR NR LRNK/LCVR NR LRNK/LCVR NR LRNK/LCVR NR LRNK/LCVR NR LRNK)/(Convolution Kernel)/(Convoluteion Kernle)/(Convoluteion Kernle)/(Convoluteion Kernle)/(Convoluteion Kernle)/(Convoluteion Kernle)/(Convoluteion Kernle)/(Convlution Kerlnel)/(Convlution Kerlnel)/(Convlution Kerlnel)/(Convlution Kerlnel)/(Convlution Kerlnel/(Convlution Kerlnel/(Convlution Kerlnel/(Convlution Kerlnel/(Convlution Kerlnel/(Convlution Kerlnel/(CO NV LT NL KR NL /(CO NV LT NL KR NL /(CO NV LT NL KR NL /(CO NV LT NL KR NL /(CO NV LT NL KR NL /(CO NV LT NL KR LN /(CO NV LT NL KR LN /(CO NV LT NL KR LN /(CO NV LT ON AL KR LN /(CN V LU T IO NA L KO RN EL )(CN V LU T IO NA L KO RN EL )(CN V LU T IO NA L KO RN EL )(CN V LU T IO NA L KO RN EL )(CN V LU T IO NA L KO RN EL )(CN V LU T IO NA L KO RN EL )(CN V LU T IO NA L KO RN EL )(CN V LU T IO NA L KO RN EL )(CN V LU T IO NA L KO RN EL )(CN V LU T IO NA L KO RN EL )) 사이 맵핑(mapping;/매핑:/매핑:/매핑:/매핑:/매핑:/매핑:/매핑:/매핑:/매핑;/mapping;/mapping;/mapping;/mapping;/mapping;/mapping;/mapping;/mapping;/mapping;) 작업 수행 후 결과값들이 바로 다음 단계인 “CNN 입력값”(Input To A CNC NS/Input To A CNC NS/Input To A CNC NS/Input To A CNC NS/Input To A CNC NS/Input To A CNC NS/Input To A CNC NS/Input To A CNC NS/Input To A CNC NS/Input To A CNC NS/Input To A CNC NETWORKS<Input To A CNC NETWORKS<Input To A CNC NETWORKS<Input To A CNC NETWORKS<Input To A CNC NETWORKS<Input To A CNC NETWORKS<Input To A NC CNS<INPUT TOA NC CNS<INPUT TOA NC CNS<INPUT TOA NC CNS<INPUT TOA NC CNS<INPUT TOA NC CNS<INPUT TOA NC CNS<INPUT TOA NC CNS<INPUT TOA NC CNS<INPUT TOA NC CS)/Input Of The Cnn/input Of The Cnn/input Of The Cnn/input Of The Cnn/input Of The Cnn/input Of The Cnn/input Of The Cnn/input Of The cnn/input Of The cnn/input OfThe cnn)/Input ForTheCnns)/Input ForTheCnns)/Input ForTheCnns)/Input ForTheCnns)/Input ForTheCnns)/Input ForTheCnns)/Input ForTheCnns)/Input ForTheCnns)/Input ForThecnns))/Input forthe cnns))/ Input forthe cnns))/ Input forthe cnns))/ Input forthe cnns))/ Input forthe cnns))/ Input forthe cnns))/ Input forthe cnns))/ Input forthe cnns))/ Input forthe cnn))/ INPUT FOR THE cnn))/ INPUT FOR THE cnn))/ INPUT FOR THE cnn))/ INPUT FOR THE cnc ns )) 로 들어갑니다.또한 본 연구에서는 “콘베르리즘 행 라야”((Convolveional Layer),(Convolveional Layer),(Convolveional Layer),(Convolveional Layer),(Convolveional Layer),(Convolveional Layer),(Convolveional Layer),(CON VL UT I ON AL LA Y ER),(CON VL UT I ON AL LA Y ER),(CON VL UT I ON AL LA Y ER),(CON VL UT I ON AL LA Y ER),(CON VL UT I ON AL LA Y ER),((convolveional layr)),((convolveional layr)),((convoveial layr)),((convoeial layr)),((convoeial layr)),((convoeial layr)),((conveial layr)),((conveial layr)),((conveial layr)),((coveial layr))) 내부에서 역전파 ((Backward Propagation), Backward Propagation), Backward Propagation), Backward Propagation), Backward Propagation), Backward Propagation), Backward Propagation), Backword Progation), Backword Progation), Backword Progation), Bakword Progation), Bakword Progation), Bakword Progation), Bakword Progation), Bakword Progation), Bakword Progation), Bakword Progation),Bakword Progation),Bakword Progation),Bakword Progation),Bakwrd Prpgtn),Bakwrd Prpgtn),Bakwrd Prpgtn),Bakwrd Prpgtn),Bkwrd Prpgtn),Bkwrd Prpgtn),BKWRDP ROPGTN),BKWRDP ROPGTN),BKWRDP ROPGTN),BKWRDP ROPGTN),BKWRDP ROPGTN),BKWRDP ROPGTN),BKWRDP ROPGTN),BKWRDP ROPGTN),BKWD PRPGTN),BKWD PRPGTN),BKWD PRPGTN),BKWD PRPGTN)、 BKWD PRPGTN)、 BKWD PRPGTN)、 BKWD PRPGTN)、 BKWD PRPGTN)、 BKWD PRPGTN)、 BKWD PRPGTN)、 BKWD PRPGTN)、 BKWD PROPT、 BKWD PROPT、 BKWD PROPT、 BK WD PRO PT、 B KW PD P RO PT、 B KW PD P RO PT、 B KW PD P RO PT、 B KW PD P RO PT、 B KW PD P RO PT、 B KW PD P RO PT、 B KW PD P RO PT、 B KW PD P RO PT、 B KW PD P RO PT、 BKWPDPROPT、 BWKP DP ORP T、 BWKP DP ORP T、 BWKP DP ORP T、 BWKP DP ORP T、 BWKP DP ORP T 方式进行优化,并将“非规则且无顺序节点邻居结构”的特征学习模型整合到网络中。这样一来,“卷积核”的优化成为整个神经网络学习过程的一部分。“无序图卷积神经网络(Disordered Graph Convolutional Neural Network; DCGNs)” 可以接受任意大小和无序的邻域图结构作为感受野,从而减少图形转换过程中信息的丢失。最后,在多个标准图形数据集上进行了实验。“实验结果表明”,所提出的方法在图形分类和检索方面优于现有最先进的方法。最终版翻译如下:커널리즘 신경망(CNNs)은 グラフ類似性マッチング(Graph Similarity Matching)에도 적용될 수 있으며 이를 グラフ-CNN(Graph-CNN)이라고 부릅니다.- グラフ類似性マッチング: Graph Similarity Matching - グラフ-CNN: Graph-CNNGraph-CNN들은 その効果性と効率性(effectiveness and efficiency) 때문에 점차 주목받고 있지만, 既存のコンボリューショナルアプローチ(existing convolution approaches)는 주로 規則的なデータ形式(regular data forms)에 집중하며, グラフやその主要なノード近傍(graph or key node neighborhoods)를 같은 고定形態(fixed form)로 변환해야 하는 요구사항 때문에 문제가 생깁니다.- その効果性と効率性: effectiveness and efficiency- 既存のコンボリューショナルアプローチ: existing convolution approaches- 規則的なデータ形式: regular data forms- グラフやその主要なノード近傍: graph or key node neighborhoods- 高定形態: fixed formこの変換過程では, 構造情報が失われたり(structural information can be lost) 또는 일부 중복 정보(redudant information)가 포함되는 등의 문제가 발생할 가능성이 있습니다.- この変換過程では: During this transfer process- 構造情報が失われたり: structural information can be lost- 一部中複情報: some redundant informationこのような 문제점을 해결하기 위해, 우리 연구팀은 混合ガウシアンモデル(mixed Gaussian model) 기반 무질서행 グラフコンボリューショナルニューラルネットワーク(Disordered Graph Convolutional Neural Network; DGCRNs)를 제안합니다.- 混合ガウシアンモデル: mixed Gaussian model- 無質序行 グラフコンボリューショナルニューラルネットワーク: Disordered Graph Convolutional Neural Network (DGCRNs)DGCRNs는 전처리(preprocessing layer called the disordered graph convolutional layer (DGCLR)): 層인「無質序行 グラフコンボリューショナルレイヤー」(disordered graph convolutional layer) (DGCLR) (disorderly_graph_conv_layer) (dgcl) (dgcl) (dgcl) (dgcl) (dgcl) (dgcl) (dgcl) (dgcl) (dgcl) (dgcl) (dgcl) (dgclr)(dgclr)(dgclr)(dgclr)(dgclr)(dgclr)(dgclr)(dgclr)(preprocessing_layer_disorderly_graph_conv_layer_preprocesing_layer_disorderly_graph_conv_layer_preprocesing_layer_disorderly_graph_conv_layer_preprocesing_layer_disorderly_graph_conv_layer_preprocesing_layer_disorderly_graph_conv_layer_preprocesing_layer_disorderly_graph_conv_layyer_preprocesing_layyer_disordely_grahp_conveluton_layyer_preprocesing_layyer_disordely_grahp_conveluton_layyer_preprocesing_layyer_disordely_grahp_conveluton_layyer_preprocesing_layyer_disordely_grahp_conveluton_layyer_preprocesing_layyer_disordely_grahp_conveluton_layyer_preprocesing_layyer_disordely_grahp_conveluton_layyer_ preprocesing_layyer_disordely_grahp_conveluton_layyerr_ preprocesing_leyyar_disordeley_grahph_conveluyton_leyyar_) 로 일반적인 「コネクションニューラルネットワーク」(connection neural networks)(cnn/cnn/cnn/cnn/cnn/cnn/cnn/cnn/cnn/cnn/cnn/cnn/cnn/cnvnet/connet/connet/connet/connet/connet/connet/connet/connet/connet/net/net/net/net/net/net/net/net/net/nnt/nnt/nnt/nnt/nnt/nnt/nnt/nnt/nnt/nnt/nnt/nnt/N NT/N NT/N NT/N NT/N NT/N NT/N NT/N NT/N NT/N NT/N NTN/N NTN/N NTN/N NTN/N NTN/N NTN/N NTN/N NTN/N NTN/N NTN/c nn/c nn/c nn/c nn/c nn/