HyperAIHyperAI

Command Palette

Search for a command to run...

HLATR: Verbesserung der mehrstufigen Textsuche durch Hybrid-Liste-bewusstes Transformer-Reranking

Yanzhao Zhang; Dingkun Long; Guangwei Xu; Pengjun Xie

Zusammenfassung

Tiefe vortrainierte Sprachmodelle (z. B. BERT) sind effektiv bei der Textretrieval-Aufgabe groß angelegter Textmengen. Bestehende Textretrieval-Systeme mit state-of-the-art-Leistung verwenden in der Regel eine zweistufige Architektur, bei der zunächst Texte abgerufen und dann neu geordnet werden, aufgrund der hohen Rechenkosten von vortrainierten Sprachmodellen und der großen Korpusgröße. Unter solch einer mehrstufigen Architektur konzentrierten sich bisherige Studien hauptsächlich auf die Optimierung einzelner Stufen des Frameworks, um die Gesamtleistung der Textretrieval zu verbessern. Allerdings wurde bisher wenig untersucht, wie man mehrstufige Features direkt für die Optimierung verbindet. In dieser Arbeit entwerfen wir den Hybrid List Aware Transformer Reranking (HLATR) als nachfolgendes Neuaufstellungsmodul, das sowohl Features aus der Abfrage- als auch aus der Neuaufstellungsstufe integriert. HLATR ist leichtgewichtig und kann einfach mit bestehenden Textretrieval-Systemen parallelisiert werden, sodass der Neuaufstellungsprozess in einem einzigen, aber effizienten Schritt durchgeführt werden kann. Empirische Experimente anhand zweier großer Textretrieval-Datensätze zeigen, dass HLATR die Rangfolgeleistung bestehender mehrstufiger Textretrieval-Methoden effizient verbessern kann.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp