11日前

主題性分析タスクにおける単語埋め込みモデルの実証的評価

{Shashank Shekhar, Priya Kamath, Geetha Maiya, Ritika Nandi}
要約

良い分類結果は、表現手法に大きく依存していることは明らかに確立された事実である。テキスト分析のいかなるタスクに取り組むにあたっても、まずテキスト表現を行う必要がある。これは、高度な機械学習モデルですら補いきれない基盤を構築するための必須プロセスである。本論文では、主観性分析(Subjectivity Analysis)を実現するためのテキスト表現の多様なモデルについて、包括的かつ定量的に分析・評価することを目的としている。我々は、Cornell主観性データセット(Cornell Subjectivity Dataset)上で多様なモデルを実装した。特に注目すべきは、BERT言語モデルが他のすべてのモデルと比べて著しく優れた性能を発揮した点である。ただし、その性能の高さは、他のアプローチと比べて著しく計算コストが高いというデメリットを伴っている。本研究では、BERT言語モデルのファインチューニングにより、主観性タスクにおいて最先端(state-of-the-art)の結果を得ることができた。この成果は、BERTをモデルとして着想を得た、主観性分析に特化した新たな専用モデルの開発を可能にする可能性を秘めており、今後の研究において多くの新しい道を開くことにつながると期待される。

主題性分析タスクにおける単語埋め込みモデルの実証的評価 | 最新論文 | HyperAI超神経