
초록
프롬프트를 사용하여 사전 학습된 언어 모델 내에 포함된 지식을 다운스트림 작업을 위해 탐색하는 것이 이제 활발한 주제가 되었습니다. 현재 프롬프트 조정 방법은 대부분 클로즈 스타일의 구문을 추가하고 모든 라벨을 고정 길이의 표현으로 매핑하여 다운스트림 작업을 마스킹된 언어 모델링 문제로 변환하며, 이는 단순한 라벨 공간을 가진 작업에서 효과적임이 입증되었습니다. 그러나 복잡한 라벨 공간을 가진 관계 분류 작업에 적용할 때, 기존의 프롬프트 조정 방법은 강성의 프롬프트 제약으로 인해 임의의 길이를 가진 라벨 표현에 대처하기 어려울 수 있습니다. 사전 학습된 생성 모델이 유연하게 누락된 구간을 예측할 수 있는 텍스트 충전 작업에서 영감을 받아, 우리는 관계 분류를 충전 문제로 재구성하는 새로운 생성 프롬프트 조정 방법을 제안합니다. 이 방법은 현재 프롬프트 기반 접근 방식의 제약에서 벗어나 실체와 관계 유형의 풍부한 의미를 완전히 활용할 수 있게 합니다. 또한, 추론 시에 관계를 효과적이고 효율적으로 생성하고 정렬하기 위해 실체 안내 디코딩과 차별화된 관계 점수 부여 방법을 설계하였습니다. 완전 감독 환경과 저자원 환경에서 수행된 광범위한 실험들은 우리의 접근 방식의 효과성을 입증하였습니다.