HyperAIHyperAI
vor 2 Monaten

HLATR: Verbesserung der mehrstufigen Textsuche durch Hybrid-Liste-bewusstes Transformer-Reranking

Yanzhao Zhang; Dingkun Long; Guangwei Xu; Pengjun Xie
HLATR: Verbesserung der mehrstufigen Textsuche durch Hybrid-Liste-bewusstes Transformer-Reranking
Abstract

Tiefe vortrainierte Sprachmodelle (z. B. BERT) sind effektiv bei der Textretrieval-Aufgabe groß angelegter Textmengen. Bestehende Textretrieval-Systeme mit state-of-the-art-Leistung verwenden in der Regel eine zweistufige Architektur, bei der zunächst Texte abgerufen und dann neu geordnet werden, aufgrund der hohen Rechenkosten von vortrainierten Sprachmodellen und der großen Korpusgröße. Unter solch einer mehrstufigen Architektur konzentrierten sich bisherige Studien hauptsächlich auf die Optimierung einzelner Stufen des Frameworks, um die Gesamtleistung der Textretrieval zu verbessern. Allerdings wurde bisher wenig untersucht, wie man mehrstufige Features direkt für die Optimierung verbindet. In dieser Arbeit entwerfen wir den Hybrid List Aware Transformer Reranking (HLATR) als nachfolgendes Neuaufstellungsmodul, das sowohl Features aus der Abfrage- als auch aus der Neuaufstellungsstufe integriert. HLATR ist leichtgewichtig und kann einfach mit bestehenden Textretrieval-Systemen parallelisiert werden, sodass der Neuaufstellungsprozess in einem einzigen, aber effizienten Schritt durchgeführt werden kann. Empirische Experimente anhand zweier großer Textretrieval-Datensätze zeigen, dass HLATR die Rangfolgeleistung bestehender mehrstufiger Textretrieval-Methoden effizient verbessern kann.

HLATR: Verbesserung der mehrstufigen Textsuche durch Hybrid-Liste-bewusstes Transformer-Reranking | Neueste Forschungsarbeiten | HyperAI