17日前
大きな兄も小さな兄もいない:言語モデルにおける知識注入によるリンク予測と質問応答
Ankush Agarwal, Sakharam Gawade, Sachin Channabasavarajendra, Pushpak Bhattacharyya

要約
知識グラフと深層学習の統合は、自然言語処理(NLP)のさまざまなタスクにおける性能向上に向け、活発な研究が進んでいます。本論文では、言語モデルT5およびBLOOMを用いた知識統合型リンク予測および質問応答(QA)に注目し、航空、映画、Webの3つのドメインで検証を行いました。この文脈において、大規模および小規模な言語モデルに知識を統合し、その性能を比較した結果、両者の性能は類似していることが明らかになりました。航空知識グラフにおけるリンク予測タスクでは、T5-small、T5-base、T5-large、およびBLOOMすべてでhits@1スコア0.2を達成しました。また、National Transportation Safety Board(NTSB)の報告書を基に、テンプレートベースのスクリプトを用いて航空分野向けに100万件の合成的事実型QAペアを生成しました。このカスタマイズされたQAデータセット上で、T5の3モデルはhits@1スコア0.7を達成しました。得られた結果の有意性および一貫性を検証するため、対応した学生t検定およびCohenのκ係数を用いて評価を行いました。特にT5-smallおよびT5-largeを用いた航空知識グラフ上のリンク予測において、Cohenのκ係数は0.76を記録し、モデル間の著しい一致が示されました。以上の結果から、知識の統合により、小規模言語モデルでも大規模言語モデルと同等の性能を発揮できることが示唆されます。