Ein C-LSTM Neuronales Netzwerk für Textklassifizierung

Neuronale Netzwerkmodelle haben ihre Fähigkeit bewiesen, bemerkenswerte Leistungen bei der Modellierung von Sätzen und Dokumenten zu erzielen. Die Faltungsneuronalen Netze (Convolutional Neural Network, CNN) und die rekurrenten neuronalen Netze (Recurrent Neural Network, RNN) sind zwei Hauptarchitekturen für solche Modellierungsaufgaben, die völlig unterschiedliche Ansätze zur Verarbeitung natürlicher Sprachen verwenden. In dieser Arbeit kombinieren wir die Stärken beider Architekturen und schlagen ein neues und einheitliches Modell namens C-LSTM vor, das für die Satzrepräsentation und Textklassifizierung verwendet wird. Das C-LSTM nutzt CNNs, um eine Sequenz höherstufiger Phrasenrepräsentationen zu extrahieren, die dann in ein Long Short-Term Memory Rekurrentes Neuronales Netz (LSTM) eingespeist werden, um die Satzrepräsentation zu erhalten. Das C-LSTM ist in der Lage, sowohl lokale Phraseneigenschaften als auch globale und zeitliche Satzsemantik zu erfassen. Wir evaluieren die vorgeschlagene Architektur anhand von Aufgaben zur Stimmungs- und Frageklassifizierung. Die experimentellen Ergebnisse zeigen, dass das C-LSTM sowohl CNNs als auch LSTMs übertrifft und ausgezeichnete Leistungen bei diesen Aufgaben erzielen kann.