2달 전

정보 최대화 계층적 조건부 VAE를 활용한 문맥에서의 다양한且일관된 QA 쌍 생성 注:在韩文中,“且”通常用于正式或学术场合,但更常见的连接词是“그리고”。根据SCI/SSCI期刊的风格,建议使用“그리고”: 정보 최대화 계층적 조건부 VAE를 활용한 문맥에서의 다양한 그리고 일관된 QA 쌍 생성

Dong Bok Lee; Seanie Lee; Woo Tae Jeong; Donghwan Kim; Sung Ju Hwang
정보 최대화 계층적 조건부 VAE를 활용한 문맥에서의 다양한且일관된 QA 쌍 생성
注:在韩文中,“且”通常用于正式或学术场合,但更常见的连接词是“그리고”。根据SCI/SSCI期刊的风格,建议使用“그리고”:
정보 최대화 계층적 조건부 VAE를 활용한 문맥에서의 다양한 그리고 일관된 QA 쌍 생성
초록

질의 응답(QA) 분야에서 가장 중요한 도전 과제 중 하나는 라벨링된 데이터의 부족입니다. 이는 대상 텍스트 영역에 대해 인간 주석을 통해 질문-답변(QA) 쌍을 얻는 것이 비용이 많이 들기 때문입니다. 이 문제를 해결하기 위한 대안적 접근 방식은 문제 상황 또는 대규모 비정형 텍스트(예: 위키백과)에서 자동으로 생성된 QA 쌍을 사용하는 것입니다. 본 연구에서는 비정형 텍스트를 문맥으로 하여 QA 쌍을 생성하면서, 생성된 QA 쌍 간의 상호 정보량을 최대화하여 일관성을 보장하는 계층적 조건부 변분 오토인코더(HCVAE)를 제안합니다. 우리는 이 모델이 Information Maximizing Hierarchical Conditional Variational AutoEncoder (Info-HCVAE)임을 여러 벤치마크 데이터셋에서 검증하였습니다. 이를 통해 BERT-base 모델의 성능을 평가하는데, 생성된 QA 쌍만 사용하거나 생성된 쌍과 인간이 라벨링한 쌍을 함께 사용하여 학습시키는 반지도 학습 방식으로, 기존 최신 기법들과 비교하였습니다. 결과는 우리 모델이 모든 기준 모델보다 두 작업 모두에서 뛰어난 성능 향상을 보였으며, 학습에 필요한 데이터의 일부만 사용하였음에도 불구하고 이러한 성능 향상을 달성하였음을 보여줍니다.

정보 최대화 계층적 조건부 VAE를 활용한 문맥에서의 다양한且일관된 QA 쌍 생성 注:在韩文中,“且”通常用于正式或学术场合,但更常见的连接词是“그리고”。根据SCI/SSCI期刊的风格,建议使用“그리고”: 정보 최대화 계층적 조건부 VAE를 활용한 문맥에서의 다양한 그리고 일관된 QA 쌍 생성 | 최신 연구 논문 | HyperAI초신경