HyperAIHyperAI

Command Palette

Search for a command to run...

Adversariales Lernen für die neuronale Dialoggenerierung

Jiwei Li; Will Monroe; Tianlin Shi; Sébastien Jean; Alan Ritter; Dan Jurafsky

Zusammenfassung

In dieser Arbeit, inspiriert von der Intuition des Turing-Tests, schlagen wir die Verwendung von adversarialem Training für die Generierung offener Dialoge vor: das System wird trainiert, Sequenzen zu erzeugen, die sich nicht von menschlich erzeugten Dialogaussagen unterscheiden lassen. Wir formulieren die Aufgabe als ein Problem des Reinforcement Learnings (RL), bei dem wir zwei Systeme gemeinsam trainieren: ein generatives Modell zur Erzeugung von Antwortsequenzen und einen Diskriminator – analog zum menschlichen Beurteiler im Turing-Test – um zwischen menschlich erzeugten und maschinell erzeugten Dialogen zu unterscheiden. Die Ausgaben des Diskriminators werden dann als Belohnungen für das generative Modell verwendet, wodurch das System angeregt wird, Dialoge zu generieren, die größtenteils den menschlichen Dialogen ähneln.Neben dem adversariellen Training beschreiben wir ein Modell für adversariale {\em Bewertung}, das den Erfolg im Täuschen eines Gegners als Metrik zur Evaluierung von Dialogen verwendet, während es gleichzeitig eine Reihe potentieller Fallen vermeidet. Experimentelle Ergebnisse auf mehreren Metriken, einschließlich der adversariellen Bewertung, zeigen, dass das adversariell trainierte System qualitativ bessere Antworten erzeugt als frühere Baseline-Modelle.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp