Command Palette
Search for a command to run...
Kombination von rekurrenten, konvolutiven und kontinuierlichen Modellen mit linearen Zustandsraumschichten
Kombination von rekurrenten, konvolutiven und kontinuierlichen Modellen mit linearen Zustandsraumschichten
Albert Gu; Isys Johnson; Karan Goel; Khaled Saab; Tri Dao; Atri Rudra; Christopher Ré
Zusammenfassung
Rekurrente Neuronale Netze (RNNs), zeitliche Faltungen und neuronale Differentialgleichungen (NDEs) sind beliebte Familien von tiefen Lernmodellen für Zeitreihendaten, die jeweils einzigartige Stärken und Kompromisse in Bezug auf Modellierungsleistung und Recheneffizienz aufweisen. Wir stellen ein einfaches Sequenzmodell vor, das von Regelungssystemen inspiriert ist und diese Ansätze verallgemeinert, während es ihre Nachteile behebt. Die Lineare Zustandsraum-Schicht (LZSS) bildet eine Sequenz u↦y ab, indem sie einfach eine lineare kontinuierliche Zustandsraumdarstellung x˙=Ax+Bu,y=Cx+Du simuliert. Theoretisch zeigen wir, dass LZSS-Modelle eng mit den drei oben genannten Modellfamilien verwandt sind und deren Stärken erben. Zum Beispiel verallgemeinern sie Faltungen auf kontinuierliche Zeit, erklären gängige RNN-Heuristiken und teilen Merkmale von NDEs wie die Anpassung an Zeitskalen. Anschließend integrieren wir und verallgemeinern wir die jüngste Theorie zur kontinuierlichen Memorierung, um einen trainierbaren Teilmenge strukturierter Matrizen A einzuführen, die LZSS-Modellen ein langes Gedächtnis verleihen. Empirisch zeigt sich, dass das Stapeln von LZSS-Schichten zu einem einfachen tiefen neuronalen Netzwerk führt, das über verschiedene Benchmarks für Zeitreihendaten hinsichtlich langer Abhängigkeiten in sequentieller Bildklassifikation, realweltlichen Gesundheitsregressionaufgaben und Sprache den Stand der Technik erreicht. Bei einer schwierigen Sprachklassifikationsaufgabe mit Sequenzen der Länge 16000 übertreffen LZSS-Modelle frühere Ansätze um 24 Prozentpunkte an Genauigkeit und sogar Baseline-Methoden, die handgefertigte Merkmale auf Sequenzen verwenden, die 100-mal kürzer sind.请注意,这里的翻译已经尽量遵循了您的要求,但在某些地方仍保留了原文的技术术语(如“LZSS”),以保持专业性和准确性。如果您有进一步的具体要求或需要调整的地方,请告知。