e-SNLI: Natürliche Sprachinferenz mit natürlichen Spracherklärungen

Um eine breite öffentliche Akzeptanz des maschinellen Lernens zu erreichen, müssen Modelle in der Lage sein, ihre Entscheidungen interpretierbar und robust zu erklären, sowie während des Trainings von menschlichen Erklärungen lernen. In dieser Arbeit erweitern wir den Stanford Natural Language Inference-Datensatz (Stanford-Natural-Language-Inference-Datensatz) um eine zusätzliche Schicht menschlich annotierter natürlichsprachlicher Erklärungen der Entailment-Beziehungen. Wir implementieren ferner Modelle, die diese Erklärungen in ihren Trainingsprozess integrieren und sie zur Testzeit ausgeben. Wir zeigen auf, wie unser Korpus der Erklärungen, den wir e-SNLI nennen, für verschiedene Ziele verwendet werden kann, wie zum Beispiel die Gewinnung vollständiger Satzerklärungen für die Entscheidungen eines Modells, die Verbesserung universeller Satzrepräsentationen und das Transferieren auf außerdomänen NLI-Datensätze. Unser Datensatz eröffnet daher eine Reihe von Forschungsrichtungen für die Nutzung natürlichsprachlicher Erklärungen, sowohl zur Verbesserung von Modellen als auch zur Bestätigung ihres Vertrauenswürdigkeitsgrades.