要約
事前学習と微調整(fine-tuning)の枠組みは、感情分析におけるアスペクトベース(Aspect-Based Sentiment Analysis, ABSA)分野で主流のアプローチとなっている。この手法は、豊富な細粒度のアスペクト-感情ラベルを備えたドメインでは良好な性能を発揮しているが、手動によるラベリングが限られているドメインにおいては、少数例(few-shot)ABSAを実現することは依然として困難である。本研究では、事前学習言語モデル(Pre-trained Language Models, PLMs)からABSAタスクへの知識移行を妨げる2つのギャップ、すなわちドメインギャップと目的ギャップが存在すると主張する。この問題に対処するため、ドメイン適応型事前学習とテキスト埋め込み(text-infilling)に基づく微調整を組み合わせた、シンプルかつ効果的なフレームワーク「FS-ABSA」を提案する。本手法では、エンドツーエンドABSAタスクをテキスト埋め込み問題として定式化し、テキスト埋め込みを目的関数とするドメイン適応型事前学習を実施することで、上記2つのギャップを縮小し、結果として知識の効果的な移行を促進する。実験の結果、少数例設定下において既存のベースラインを上回る優れた性能を達成するとともに、完全教師あり設定下においても複数のデータセットで最先端の性能を新たに達成した。さらに、本フレームワークを英語以外の低リソース言語2種類に適用することで、その汎用性と有効性を実証した。