HyperAIHyperAI

Command Palette

Search for a command to run...

Transformers zur Lernung hierarchischer Kontexte in Multiparty-Dialogen für spanbasierte Fragebeantwortung

Changmao Li Jinho D. Choi

Zusammenfassung

Wir stellen einen neuartigen Ansatz für Transformers vor, der hierarchische Darstellungen in Mehrparteien-Dialogen lernt. Zunächst werden drei Sprachmodellierungsaufgaben eingesetzt, um die Transformers vorzutrainieren: Token- und Äußerungsebene Sprachmodellierung sowie die Vorhersage der Äußerungsreihenfolge. Diese Aufgaben ermöglichen es, sowohl Token- als auch Äußerungsebenen-Embeddings zu lernen, um das Verständnis im Dialogkontext zu verbessern. Anschließend wird ein Mehraufgaben-Lernansatz zwischen der Äußerungsvorhersage und der Vorhersage von Token-Blöcken angewendet, um das Modell für spanbasierte Fragebeantwortung (Span-based QA) zu feintunen. Unser Ansatz wird auf dem FriendsQA-Datensatz evaluiert und zeigt gegenüber den beiden state-of-the-art-Transformer-Modellen BERT und RoBERTa jeweils Verbesserungen um 3,8 % und 1,4 %.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp