Faltungsneuronale Netze mit rekurrenten neuronalen Filtern

Wir stellen eine Klasse von Faltungsneuronalen Netzen (CNNs) vor, die rekurrente Neuronale Netze (RNNs) als Faltungsfiltre einsetzt. Ein Faltungsfilter wird in der Regel als lineare affin Transformation gefolgt von einer nicht-linearen Funktion implementiert, was die Sprachkomposition nicht berücksichtigt. Dies begrenzt die Verwendung hochwertiger Filter, die für natürlichsprachliche Aufgaben oft gerechtfertigt sind. In dieser Arbeit modellieren wir Faltungsfiltre mit RNNs, die die Sprachkomposition und langfristige Abhängigkeiten natürlich erfassen. Wir zeigen, dass einfache CNN-Architekturen, die mit rekurrenten neuronalen Filtren (RNFs) ausgestattet sind, Ergebnisse erzielen, die den besten veröffentlichten auf dem Stanford Sentiment Treebank sowie auf zwei Datensätzen zur Auswahl von Antwortsatzen entsprechen.