2달 전

대규모 언어 모델을 이용한 엔티티 매칭

Ralph Peeters; Aaron Steiner; Christian Bizer
대규모 언어 모델을 이용한 엔티티 매칭
초록

엔티티 매칭은 두 개의 엔티티 설명이 동일한 실제 세계 엔티티를 참조하는지 결정하는 작업입니다. 엔티티 매칭은 대부분의 데이터 통합 파이프라인에서 핵심 단계입니다. 최신 엔티티 매칭 방법 중 많은 부분이 BERT나 RoBERTa와 같은 사전 훈련된 언어 모델(PLM)에 의존하고 있습니다. 이러한 모델의 엔티티 매칭에 대한 두 가지 주요 단점은 (i) 상당량의 태스크 특화 훈련 데이터가 필요하다는 점과 (ii) 분포 외 엔티티에 대해 미세 조정된 모델이 강건하지 않다는 점입니다. 본 논문에서는 이러한 PLM 기반 매처보다 덜 태스크 특화 훈련 데이터에 의존적이면서 더 강건한 대안으로 생성형 대규모 언어 모델(LLM)을 사용하는 것을 연구합니다. 이 연구는 로컬에서 실행할 수 있는 호스팅 및 오픈 소스 LLM을 포함합니다. 우리는 제로샷 시나리오와 태스크 특화 훈련 데이터가 제공되는 시나리오에서 이러한 모델들을 평가합니다. 다양한 프롬프트 설계와 모델들의 프롬프트 민감성을 비교합니다. 우리는 단일 최적의 프롬프트가 존재하지 않으며, 각 모델/데이터셋 조합에 맞게 프롬프트를 조정해야 함을 보여줍니다. 또한 (i) 컨텍스트 내 데모 선택, (ii) 매칭 규칙 생성, 그리고 (iii) 동일한 훈련 데이터 풀을 사용하여 LLM을 미세 조정하는 것을 추가로 연구합니다. 실험 결과, 최고 성능의 LLM들은数千个示例中只有很少或完全不需要训练样例即可达到与使用数千个示例进行微调的PLM相当的性能。LLM 기반 매처는 또한 미지의 엔티티에 대해 더 높은 강건성을 나타냅니다. 우리는 GPT4가 구조화된 매칭 결정 설명을 생성할 수 있으며, 잘못된 결정의 설명을 분석하여 매칭 오류의 잠재적 원인을 자동으로 식별할 수 있음을 보여줍니다. 식별된 오류 클래스에 대한 의미 있는 텍스트 설명을 생성할 수 있다는 점도 입증되었습니다. 이는 데이터 엔지니어들이 엔티티 매칭 파이프라인을 개선하는 데 도움이 될 수 있습니다.注:在最后一段中,有一句中文的内容“数千个示例中只有很少或完全不需要训练样例即可达到与使用数千个示例进行微调的PLM相当的性能。” 这句话应该是误插入的。根据上下文,正确的英文内容应该是:“The best LLMs require no or only a few training examples to perform comparably to PLMs that were fine-tuned using thousands of examples.” 以下是修正后的韩文翻译:실험 결과, 최고 성능의 LLM들은 몇천 개의 예제 없이도 또는 매우 적은 양의 훈련 예제만으로 PLM들이 몇천 개의 예제를 사용해 미세 조정되었을 때와 유사한 성능을 발휘함을 확인했습니다. LLM 기반 매처는 또한 미지의 엔티تي에 대해 더 높은 강건성을 나타냅니다. 우리는 GPT4가 구조화된 매칭 결정 설명을 생성할 수 있으며, 잘못된 결정의 설명을 분석하여 매칭 오류의 잠재적 원인을 자동으로 식별할 수 있음을 보여줍니다. 식별된 오류 클래스에 대한 의미 있는 텍스트 설명을 생성할 수 있다는 점도 입증되었습니다. 이는 데이터 엔지니어들이 엔티티 매칭 파이프라인을 개선하는 데 도움이 될 수 있습니다.