
초록
추상 의미 표현(AMR)은 자연어 문장에 대한 통합적인 의미 표현을 제공한다. 따라서 AMR와 텍스트 간의 변환은 서로 반대 방향의 두 가지 전이 작업, 즉 텍스트 → AMR 파싱과 AMR → 텍스트 생성으로 나뉜다. 기존의 AMR 연구들은 두 작업의 이중성에도 불구하고 단방향 개선에만 초점을 맞추어 왔으며, 이들의 성능 향상은 대규모 추가 학습 데이터나 복잡한 구조적 수정에 크게 의존해 왔다. 이러한 접근 방식은 추론 속도에 부정적인 영향을 미친다. 반면, 우리는 단일 단계 다중 작업 전략을 도입함으로써 양방향 정보 전이를 촉진하는 데이터 효율적인 이중 방향 베이지안 학습(BiBL)을 제안한다. 이로 인해 모델은 훨씬 가벼운 학습 부담을 가지면서도 양방향 전이 성능을 동시에 향상시킬 수 있다. 기준 데이터셋에서의 평가 결과, 기존의 대규모 추가 데이터에 의존하는 모델들과 달리, BiBL은 추가 데이터 없이도 강력한 기존 seq2seq 개선 모델들을 능가하는 성능을 보였다. BiBL의 코드는 다음 링크에서 공개된다: https://github.com/KHAKhazeus/BiBL.