HyperAIHyperAI
vor 17 Tagen

RLAS-BIABC: Eine auf Verstärkungslernen basierende Antwortauswahl mittels des BERT-Modells, das durch einen verbesserten ABC-Algorithmus gestärkt wird

Hamid Gharagozlou, Javad Mohammadzadeh, Azam Bastanfard, Saeed Shiry Ghidary
RLAS-BIABC: Eine auf Verstärkungslernen basierende Antwortauswahl mittels des BERT-Modells, das durch einen verbesserten ABC-Algorithmus gestärkt wird
Abstract

Die Antwortauswahl (AS) ist eine zentrale Unteraufgabe des offenen Domänen-Frage-Antwort-Problems (QA). In diesem Beitrag wird ein Verfahren namens RLAS-BIABC für die AS vorgestellt, das auf einer auf Aufmerksamkeitsmechanismen basierenden Langzeit-Kurzzeit-Gedächtnis-Struktur (LSTM) und den bidirektionalen Encoder-Repräsentationen aus Transformers (BERT) basiert, wobei die Vorverarbeitung durch einen verbesserten künstlichen Bienenkolonie-Algorithmus (ABC) und die Trainingsphase durch einen auf Verstärkungslernen basierenden Algorithmus für die Rückpropagation (BP) ergänzt wird. BERT kann in nachgeschaltete Aufgaben integriert und als einheitliche, auf die spezifische Aufgabe zugeschnittene Architektur feinabgestimmt werden; zudem kann das vortrainierte BERT-Modell verschiedene sprachliche Effekte erfassen. Herkömmliche Algorithmen trainieren typischerweise das AS-Modell mit positiv-negativ-Paaren für einen Zweiklassen-Klassifikator. Ein positives Paar besteht aus einer Frage und einer echten Antwort, während ein negatives Paar aus einer Frage und einer gefälschten Antwort besteht. Die Ausgabe soll für positives Paare 1 und für negative Paare 0 ergeben. In der Regel sind negative Paare deutlich häufiger als positive, was zu einer unbalancierten Klassifikation führt, die die Systemleistung erheblich beeinträchtigt. Um diesem Problem zu begegnen, definieren wir die Klassifikation als einen sequenziellen Entscheidungsprozess, bei dem der Agent in jedem Schritt ein Beispiel auswählt und klassifiziert. Bei jeder Klassifikationsoperation erhält der Agent eine Belohnung, wobei die Belohnung für die überwiegende Klasse geringer ist als die Belohnung für die seltener auftretende Klasse. Letztendlich findet der Agent den optimalen Wert für die Politikgewichte. Die Politikgewichte werden initial mit dem verbesserten ABC-Algorithmus festgelegt. Diese Initialisierungstechnik verhindert Probleme wie das Einfrieren in lokalen Optima. Obwohl der ABC-Algorithmus in der Regel gut funktioniert, weist er dennoch eine Schwäche auf: Er berücksichtigt bei der Suche nach einer benachbarten Nahrungsquelle nicht die Fitness von Paaren von Individuen, was die Effizienz der Suche beeinträchtigen kann.

RLAS-BIABC: Eine auf Verstärkungslernen basierende Antwortauswahl mittels des BERT-Modells, das durch einen verbesserten ABC-Algorithmus gestärkt wird | Neueste Forschungsarbeiten | HyperAI