HyperAIHyperAI
vor 15 Tagen

Speicherbezogenes differenzielles Lernen

Yi Luo, Aiguo Chen, Bei Hui, Ke Yan
Speicherbezogenes differenzielles Lernen
Abstract

Herkömmliche Ansätze des überwachten Lernens konzentrieren sich auf die Abbildung von Eingabeparametern auf Ausgabelabels. Nach der Trainingsphase werden die gelernten Modelle allein auf die Testdaten angewendet, um die Testlabels isoliert vorherzusagen, wobei die Trainingsdaten ungenutzt bleiben und ihre Beziehungen ignoriert werden. Um das volle Potenzial der großen Menge an Trainingsdaten und ihrer Wechselwirkungen auszunutzen, schlagen wir ein neuartiges Lernparadigma namens Memory-Associated Differential (MAD) Learning vor. Zunächst führen wir eine zusätzliche Komponente namens Memory ein, die alle Trainingsdaten speichert. Anschließend lernen wir die Unterschiede der Labels sowie die Assoziationen der Merkmale durch die Kombination einer Differentialgleichung mit bestimmten Sampling-Methoden. Schließlich prognostizieren wir in der Auswertungsphase unbekannte Labels, indem wir geometrisch sinnvoll aus den gespeicherten Fakten sowie den gelernten Unterschieden und Assoziationen inferieren. Wir entwickeln diese Theorie zunächst für einstellige (unäre) Situationen und wenden sie auf die Bilderkennung an, um sie anschließend auf die Link-Vorhersage als binäre Situation zu erweitern, wobei unsere Methode auf dem ogbl-ddi-Datensatz starke state-of-the-art-Baselines übertrifft.

Speicherbezogenes differenzielles Lernen | Neueste Forschungsarbeiten | HyperAI