
多くの最近の研究では、単一言語の知識グラフを完成させるために知識グラフ埋め込みが持つ利点を示しています。関連する知識ベースが複数の異なる言語で構築されていることを考えると、クロスリンガルな知識の整列を達成することは、一貫性のある知識ベースの構築に人々を助け、また機械が多様な人間の言語におけるエンティティ関係の異なる表現に対処するのに役立ちます。しかしながら、人間の労力によってこの望ましいクロスリンガルな整列を達成することは非常にコストがかかり、誤りが生じやすいです。そこで、私たちはMTransE(Multilingual Knowledge Graph Embeddings based on Translation)と呼ばれる翻訳に基づくモデルを提案し、単純かつ自動的な解決策を提供します。各言語のエンティティとリレーションを分離された埋め込み空間で符号化することにより、MTransEは各埋め込みベクトルに対して他の空間でのクロスリンガルな対応物への移行を提供します。これにより、単一言語の埋め込み機能性は保たれます。私たちは軸校正(axis calibration)、翻訳ベクトル(translation vectors)、線形変換(linear transformations)という3つの異なる手法を使用してクロスリンガルな移行を表現し、異なる損失関数を使用することでMTransEの5つのバリエントを導き出しました。部分的に整列されたグラフ上で訓練できるように設計されており、その中でもごく一部のトリプルのみがクロスリンガルな対応物と整列されています。クロスリンガルなエンティティマッチングとトリプル単位での整列検証に関する実験では有望な結果が得られており、いくつかのバリエントは異なるタスクにおいて一貫して他よりも優れた性能を示しています。また、私たちはMTransEがその単一言語版であるTransEの主要特性をどのように保つかについても探求しています。