2달 전

KG-BERT: 지식 그래프 완성용 BERT

Liang Yao; Chengsheng Mao; Yuan Luo
KG-BERT: 지식 그래프 완성용 BERT
초록

지식 그래프는 많은 인공 지능 작업에 중요한 자원이지만 종종 불완전성으로 고통받습니다. 본 연구에서는 지식 그래프 완성에 사전 학습된 언어 모델을 사용하는 방법을 제안합니다. 우리는 지식 그래프의 트리플을 텍스트 시퀀스로 취급하고, 이러한 트리플을 모델링하기 위한 새로운 프레임워크인 Knowledge Graph Bidirectional Encoder Representations from Transformer (KG-BERT, 지식 그래프 양방향 인코더 표현 변환기)를 제안합니다. 우리의 방법은 트리플의 개체와 관계 설명을 입력으로 받아 KG-BERT 언어 모델을 통해 트리플의 점수 함수를 계산합니다. 여러 벤치마크 지식 그래프에서 수행한 실험 결과, 우리의 방법이 트리플 분류, 링크 예측 및 관계 예측 작업에서 최신 수준의 성능을 달성할 수 있음을 보여줍니다.

KG-BERT: 지식 그래프 완성용 BERT | 최신 연구 논문 | HyperAI초신경