2ヶ月前

大規模言語モデルのファインチューニングによるエンティティマッチング

Steiner, Aaron ; Peeters, Ralph ; Bizer, Christian
大規模言語モデルのファインチューニングによるエンティティマッチング
要約

生成大規模言語モデル(Generative Large Language Models, LLMs)は、ゼロショット性能の高さと未知のエンティティに対する汎化能力により、事前学習済み言語モデルの有望な代替手段となっています。LLMsをエンティティマッチングに利用する既存の研究では、プロンプト設計とコンテキスト内学習に焦点が当てられてきました。本論文では、LLMsのファインチューニングによるエンティティマッチングの可能性を探ります。ファインチューニングについて、以下の2つの観点から分析を行います:1) 学習例の表現方法において、異なる種類のLLM生成説明を学習セットに追加する実験を行い、2) LLMsを使用した学習例の選択と生成方法について検討します。ソースデータセットでのマッチング性能だけでなく、ドメイン内データセットやトピカルドメイン間への汎化能力がどのように影響を受けるかも調査しました。実験結果は、ファインチューニングが小規模モデルの性能を大幅に向上させる一方で、大規模モデルについては結果が混在していることを示しています。また、ファインチューニングはドメイン内データセットへの汎化能力を向上させますが、クロスドメイン転移には悪影響を与えることがわかりました。構造化された説明を学習セットに追加することで、4つのLLMsうち3つの性能が向上することが確認されました。一方で提案された学習例選択・生成手法はLlama 3.1 8Bの性能を改善しながらもGPT-4o-mini(GPT-4-mini)の性能を低下させました。

大規模言語モデルのファインチューニングによるエンティティマッチング | 最新論文 | HyperAI超神経