
최근의 많은 연구들은 단일 언어 지식 그래프 완성에 있어 지식 그래프 임베딩의 이점을 입증하였습니다. 관련 지식 기반들이 여러 다른 언어로 구축되고 있으므로, 다언어 간 지식 정렬을 달성하는 것은 일관된 지식 기반을 구축하는 데 도움이 되며, 다양한 인간 언어에서 엔티티 관계의 다른 표현을 처리하는 데 있어 기계를 지원할 것입니다. 그러나 이러한 바람직한 다언어 정렬을 인적 노동으로 달성하는 것은 매우 비싸고 오류가 발생하기 쉽습니다. 따라서 우리는 MTransE라는 번역 기반 모델을 제안하여 다언어 지식 그래프 임베딩에 대한 간단하고 자동화된 솔루션을 제공합니다. 각 언어의 엔티티와 관계를 별도의 임베딩 공간에서 인코딩함으로써, MTransE는 각 임베딩 벡터가 다른 공간에서 해당하는 다언어 대응체로 전환될 수 있도록 하면서 단일 언어 임베딩의 기능성을 유지합니다. 우리는 축 교정(轴校准), 번역 벡터(translation vectors), 선형 변환(linear transformations)이라는 세 가지 다른 기술을 사용하여 다언語 간 전환을 표현하며, 서로 다른 손실 함수를 사용하여 MTransE의 다섯 가지 변형체를 도출하였습니다. 우리의 모델은 일부만 정렬된 그래프에서 훈련될 수 있으며, 여기서는 트리플 중 작은 부분만이 다언어 대응체와 정렬됩니다. 다언語 엔티티 매칭 및 트리플별 정렬 검증 실험에서는 유망한 결과가 나타났으며, 일부 변형체는 다양한 작업에서 일관되게 다른 변형체보다 우수한 성능을 보였습니다. 또한 우리는 MTransE가 단일 언어 대응체인 TransE의 주요 특성을 어떻게 유지하는지 탐구하였습니다.