HyperAIHyperAI

Command Palette

Search for a command to run...

RNNs von RNNs: Rekursive Konstruktion stabiler Assemblen rekurrenter Neuronaler Netze

Leo Kozachkov; Michaela Ennis; Jean-Jacques Slotine

Zusammenfassung

Rekurrente Neuronale Netze (RNNs) werden in der Neurowissenschaft häufig als Modelle für lokale neuronale Aktivität eingesetzt. Viele Eigenschaften einzelner RNNs sind theoretisch gut charakterisiert, doch die experimentelle Neurowissenschaft hat sich in Richtung des Studiums mehrerer interagierender Bereiche bewegt, und die Theorie der RNNs muss entsprechend erweitert werden. Wir nehmen einen konstruktiven Ansatz für dieses Problem, indem wir Werkzeuge aus der Theorie nichtlinearer Regelungstechnik und dem maschinellen Lernen nutzen, um zu bestimmen, wann Kombinationen stabiler RNNs selbst stabil sein werden. Besonders wichtig ist, dass wir Bedingungen ableiten, die massive Rückkopplungsverbindungen zwischen interagierenden RNNs zulassen. Diese Bedingungen parametrisieren wir zur einfacheren Optimierung mit gradientenbasierten Techniken und zeigen, dass stabilitätseinschränkte "Netze von Netzen" bei anspruchsvollen sequentiellen Benchmark-Aufgaben gut abschneiden können. Insgesamt liefern unsere Ergebnisse einen präzisen Ansatz zur Verständnis verteilter, modularen Funktionen im Gehirn.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
RNNs von RNNs: Rekursive Konstruktion stabiler Assemblen rekurrenter Neuronaler Netze | Paper | HyperAI