
要約
本稿では、事前学習された言語モデル(例:BERT)から得られる文脈依存型埋め込みのモデリング能力について、E2E-ABSAタスクに対して検討する。具体的には、E2E-ABSAに対応するシンプルながら洞察を深めるべきニューラルベースラインを多数構築した。実験の結果、単純な線形分類層を用いても、本研究で提案するBERTベースのアーキテクチャが既存の最先端手法を上回ることを示した。さらに、従来の研究でほとんど無視されてきた点として、モデル選択に一貫してホールドアウト検証データセットを用いることで、比較研究の標準化を図った。したがって、本研究はE2E-ABSAタスクにおけるBERTベースのベンチマークとしての役割を果たすことができる。