Multimodale abstraktive Zusammenfassung für How2-Videos

In dieser Arbeit untersuchen wir die abstrakte Zusammenfassung für Videos aus offenen Domänen. Im Gegensatz zur traditionellen Textnachrichtenzusammenfassung besteht das Ziel weniger darin, Textinformationen zu „komprimieren“, sondern vielmehr, eine flüssige textuelle Zusammenfassung von Informationen bereitzustellen, die aus verschiedenen Quellmodalitäten gesammelt und fusioniert wurden – in unserem Fall Video- und Audiotranskripte (oder Text). Wir zeigen, wie ein mehrquelliges Sequenz-zu-Sequenz-Modell mit hierarchischer Aufmerksamkeit Informationen aus verschiedenen Modalitäten in einen kohärenten Output integrieren kann, vergleichen verschiedene Modelle, die mit unterschiedlichen Modalitäten trainiert wurden, und präsentieren Pilotexperimente am How2-Korpus von Anleitungsvideos. Darüber hinaus schlagen wir eine neue Evaluationsmetrik (Content F1) für die Aufgabe der abstrakten Zusammenfassung vor, die semantische Adäquatheit anstatt die Flüssigkeit der Zusammenfassungen misst, wobei letztere durch Metriken wie ROUGE und BLEU abgedeckt sind.