Command Palette
Search for a command to run...
HLATR: ハイブリッドリスト対応トランスフォーマー再ランキングを用いた多段階テキスト検索の強化
HLATR: ハイブリッドリスト対応トランスフォーマー再ランキングを用いた多段階テキスト検索の強化
Yanzhao Zhang; Dingkun Long; Guangwei Xu; Pengjun Xie
概要
深層学習済み言語モデル(例:BERT)は、大規模なテキスト検索タスクにおいて効果的である。現行の最先端のテキスト検索システムでは、事前学習済み言語モデルの高い計算コストと大量のコーパスサイズを考慮し、通常は「検索後に再ランキング」のアーキテクチャを採用している。このような多段階アーキテクチャにおいて、これまでの研究は主にフレームワークの単一ステージの最適化に焦点を当てており、全体的な検索性能を向上させることが目的であった。しかし、多段階特徴量を直接結合して最適化する方法については十分に研究されていない。本論文では、Hybrid List Aware Transformer Reranking (HLATR) を設計し、検索ステージと再ランキングステージの両方の特徴量を取り入れる後続の再ランキングモジュールとして提案する。HLATR は軽量であり、既存のテキスト検索システムと容易に並列化できるため、効率的に単一プロセスで再ランキング処理を行うことができる。2つの大規模なテキスト検索データセットを用いた実験結果から、HLATR が既存の多段階テキスト検索手法のランキング性能を効率的に向上させることを示している。