HyperAIHyperAI

Command Palette

Search for a command to run...

Faltungsneuronale Netze mit rekurrenten neuronalen Filtern

Yi Yang

Zusammenfassung

Wir stellen eine Klasse von Faltungsneuronalen Netzen (CNNs) vor, die rekurrente Neuronale Netze (RNNs) als Faltungsfiltre einsetzt. Ein Faltungsfilter wird in der Regel als lineare affin Transformation gefolgt von einer nicht-linearen Funktion implementiert, was die Sprachkomposition nicht berücksichtigt. Dies begrenzt die Verwendung hochwertiger Filter, die für natürlichsprachliche Aufgaben oft gerechtfertigt sind. In dieser Arbeit modellieren wir Faltungsfiltre mit RNNs, die die Sprachkomposition und langfristige Abhängigkeiten natürlich erfassen. Wir zeigen, dass einfache CNN-Architekturen, die mit rekurrenten neuronalen Filtren (RNFs) ausgestattet sind, Ergebnisse erzielen, die den besten veröffentlichten auf dem Stanford Sentiment Treebank sowie auf zwei Datensätzen zur Auswahl von Antwortsatzen entsprechen.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp