2달 전

대형 언어 모델의 엔티티 매칭을 위한 미세 조정

Steiner, Aaron ; Peeters, Ralph ; Bizer, Christian
대형 언어 모델의 엔티티 매칭을 위한 미세 조정
초록

생성형 대규모 언어 모델(LLMs)은 사전 훈련된 언어 모델에 비해 엔티티 매칭에서 높은 제로샷 성능과 미지의 엔티티에 대한 일반화 능력을 갖추고 있어 유망한 대안으로 여겨지고 있습니다. LLMs를 사용한 엔티티 매칭에 대한 기존 연구는 주로 프롬프트 공학(prompt engineering)과 문맥 내 학습(in-context learning)에 초점을 맞추었습니다. 본 논문에서는 엔티티 매칭을 위한 LLMs의 fine-tuning 잠재력을 탐구합니다. 우리는 fine-tuning을 두 가지 차원에서 분석합니다: 1) 훈련 예제의 표현 방식으로, 다양한 유형의 LLM 생성 설명을 훈련 세트에 추가하는 실험을 수행하고, 2) LLMs를 사용하여 훈련 예제를 선택하고 생성하는 방법입니다. 원본 데이터셋에서의 매칭 성능뿐만 아니라, fine-tuning이 동일 도메인 내 다른 데이터셋 및 주제별 도메인 간 일반화 능력에 어떤 영향을 미치는지 조사하였습니다. 실험 결과, fine-tuning은 작은 모델들의 성능을 크게 개선하였으나 큰 모델들에 대해서는 결과가 혼합적이었습니다. 또한, fine-tuning은 동일 도메인 데이터셋의 일반화 능력을 개선했지만, 도메인 간 전송 성능에는 부정적인 영향을 미쳤습니다. 우리는 구조화된 설명을 훈련 세트에 추가하면 네 개 중 세 개의 LLMs 성능에 긍정적인 영향을 미친다는 것을 보여주었으며, 제안된 예제 선택 및 생성 방법은 Llama 3.1 8B의 성능을 개선했지만 GPT-4o-mini의 성능은 저하시켰습니다.

대형 언어 모델의 엔티티 매칭을 위한 미세 조정 | 최신 연구 논문 | HyperAI초신경