2달 전
ExtractGPT: 대형 언어 모델의 제품 속성 값 추출 잠재력 탐구
Alexander Brinkmann; Roee Shraga; Christian Bizer

초록
전자상거래 플랫폼은 속성-값 쌍 형태의 구조화된 제품 데이터를 필요로 하여 측면별 제품 검색(faceted product search) 또는 속성 기반 제품 비교 등의 기능을 제공할 수 있습니다. 그러나 판매업체들은 종종 비구조화된 제품 설명을 제공하여, 이러한 텍스트에서 속성-값 쌍을 추출해야 하는 상황이 발생합니다. BERT 기반 추출 방법은 대량의 작업별 학습 데이터를 필요로 하며, 미처 본 적 없는 속성 값에 대해 어려움을 겪습니다. 본 논문에서는 더 효율적인 학습 데이터 사용과 강건성을 갖춘 대안으로 대형 언어 모델(LLMs)의 활용을 탐구합니다. 우리는 제로샷(zero-shot) 및 소수 샷(few-shot) 시나리오를 위한 프롬프트 템플릿을 제안하며, 텍스트 기반 및 JSON 기반 대상 스키마 표현을 비교하였습니다. 실험 결과, GPT-4는 상세한 속성 설명과 데모를 사용하여 평균 F1 점수가 85%로 가장 높았으며, Llama-3-70B도 거의 비슷한 성능을 보여주어 경쟁력 있는 오픈 소스 대안을 제공하였습니다. GPT-4는 최고의 사전 학습 모델(PLM) 베이스라인보다 F1 점수에서 5% 우위를 보였습니다. GPT-3.5의 파인튜닝은 성능을 GPT-4 수준으로 끌어올렸지만, 모델의 일반화 능력은 미처 본 적 없는 속성 값에 대한 처리 능력이 감소하였습니다.