
지식 그래프(KGs)를 연속 벡터 공간에 임베딩하는 것은 현재 연구의 주요 관심사입니다. 이러한 임베딩 모델을 논리 규칙과 결합하는 것이 최근에 점점 더 많은 주목을 받고 있습니다. 이전의 대부분 시도는 논리 규칙을 한 번만 주입하여, 임베딩 학습과 논리적 추론 사이의 상호작용적인 특성을 무시했습니다. 또한 그들은 예외가 없는 경직된 규칙(hard rules)에만 초점을 맞추었으며, 이러한 규칙은 일반적으로 생성하거나 검증하기 위해 많은 수작업이 필요합니다. 본 논문에서는 소프트 규칙(soft rules)으로부터 반복적으로 안내를 받는 새로운 패러다임인 Rule-Guided Embedding (RUGE)를 제안합니다. RUGE는 1) 주어진 지식 그래프에서 직접 관찰된 라벨링된 트리플, 2) 라벨이 반복적으로 예측될 예정인 비라벨링된 트리플, 그리고 3) 지식 그래프에서 자동으로 추출된 다양한 신뢰도를 가진 소프트 규칙으로부터 동시에 학습할 수 있도록 합니다. 학습 과정에서 RUGE는 비라벨링된 트리플에 대한 소프트 라벨을 얻기 위해 규칙을 반복적으로 쿼리하고, 이렇게 새로 라벨링된 트리플들을 통합하여 임베딩 모델을 업데이트합니다. 이 반복적인 절차를 통해 논리 규칙에 내재된 지식이 학습된 임베딩으로 더 잘 전달될 수 있습니다. 우리는 Freebase와 YAGO에서 링크 예측(link prediction)을 통해 RUGE를 평가하였습니다. 실험 결과는 다음과 같습니다: 1) 규칙 지식이 반복적으로 주입됨에 따라 RUGE는 최신 기준모델들보다 유의미하고 일관성 있는 개선을 이루었습니다; 그리고 2) 불확실성이 존재하더라도 자동으로 추출된 소프트 규칙은 중간 수준의 신뢰도를 가진 것들까지 지식 그래프 임베딩에 매우 유익하다는 것을 보여주었습니다. 본 논문에서 사용한 코드와 데이터는 https://github.com/iieir-km/RUGE에서 다운로드할 수 있습니다.