13일 전

GETT-QA: 지식 그래프 질문 응답을 위한 그래프 임베딩 기반 T2T Transformer

Debayan Banerjee, Pranav Ajit Nair, Ricardo Usbeck, Chris Biemann
GETT-QA: 지식 그래프 질문 응답을 위한 그래프 임베딩 기반 T2T Transformer
초록

이 연구에서는 T5, 즉 인기 있는 텍스트-텍스트 사전 훈련 언어 모델을 사용하는 엔드투엔드 지식 그래프 질의 응답(KGQA) 시스템인 GETT-QA를 제안한다. 이 모델은 자연어로 표현된 질문을 입력으로 받아, 의도한 SPARQL 쿼리의 간소화된 형태를 출력한다. 간소화된 형태에서는 모델이 직접 엔티티 및 관계 ID를 생성하지 않고, 대신 해당 엔티티와 관계의 레이블을 생성한다. 이후 단계에서 이 레이블들은 지식 그래프(KG) 내 엔티티 및 관계 ID에 대응(그라운딩)된다. 성능을 further 향상시키기 위해, 각 엔티티에 대해 지식 그래프 임베딩의 절단된 형태를 출력하도록 모델을 지시한다. 이 절단된 KG 임베딩은 엔티티의 모호성 해소를 위한 보다 정교한 검색을 가능하게 한다. 우리는 T5 모델이 손실 함수의 어떠한 변경 없이도 절단된 KG 임베딩을 학습할 수 있음을 발견하였으며, 이는 KGQA 성능을 향상시킨다. 결과적으로, Wikidata 기반 엔드투엔드 KGQA에서 LC-QuAD 2.0 및 SimpleQuestions-Wikidata 데이터셋에 대해 강력한 성능을 보고한다.

GETT-QA: 지식 그래프 질문 응답을 위한 그래프 임베딩 기반 T2T Transformer | 최신 연구 논문 | HyperAI초신경