Effiziente Approximation von Volterra-Reihen für hochdimensionale Systeme
Navin Khoshnan Claudia K Petritsch Bryce-Allen Bagley

Abstract
Die Identifizierung hochdimensionaler nichtlinearer dynamischer Systeme mittels Volterra-Reihen weist ein erhebliches Potenzial auf, ist jedoch erheblich durch die „Fluch der Dimensionalität“ behindert. Tensor-Netzwerk-(TN)-Methoden wie der modifizierte alternierende lineare Algorithmus (MVMALS) haben für den Forschungsbereich eine bahnbrechende Bedeutung erlangt, da sie eine handhabbare Herangehensweise bieten, indem sie die niedrige Rangstruktur in Volterra-Kernen ausnutzen. Dennoch stoßen diese Verfahren auf erhebliche rechnerische und speicherbasierte Engpässe, verursacht durch die hochgradige polynomielle Skalierung in Bezug auf die Eingangsdimension. Um diese Hürde zu überwinden, stellen wir den Tensor-Head-Averaging-(THA)-Algorithmus vor, der die Komplexität signifikant reduziert, indem er eine Ensemble-Struktur aus lokalisierten MVMALS-Modellen aufbaut, die jeweils auf kleinen Teilmengen des Eingaberaums trainiert werden. In diesem Artikel legen wir eine theoretische Fundierung für den THA-Algorithmus dar. Wir leiten beobachtbare, endlich-stichprobenbasierte Fehlergrenzen zwischen dem THA-Ensemble und einem vollständigen MVMALS-Modell her und leiten eine exakte Zerlegung des quadratischen Fehlers ab. Diese Zerlegung dient der Analyse der Art und Weise, wie die Teilmodellstrukturen die ausgelassenen Dynamiken implizit kompensieren. Wir quantifizieren diesen Effekt und beweisen, dass die Korrelation zwischen den berücksichtigten und den ausgelassenen Dynamiken eine Optimierungsanreiz schafft, der die Leistungsfähigkeit von THA in Richtung einer Genauigkeit treibt, die über eine einfache Trunkierung eines vollständigen MVMALS-Modells hinausgeht. THA bietet somit eine skalierbare und theoretisch fundierte Methode zur Identifizierung bisher unzugänglicher hochdimensionaler Systeme.
KI mit KI entwickeln
Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.