Command Palette
Search for a command to run...
LLM Basierend Auf Grundprinzipien, Ein Neues Trainingsparadigma POET
Datum
Reparameterized Training via Orthogonal Equivalence Transformation (POET) ist ein neuartiger reparametrisierter Trainingsalgorithmus, der am 9. Juni 2025 vom Max-Planck-Institut in Deutschland und der Chinesischen Universität Hongkong vorgeschlagen wurde. Er nutzt die orthogonale Äquivalenztransformation zur Optimierung von Neuronen. Die Ergebnisse der Studie sind:Reparametrisiertes LLM-Training mittels orthogonaler Äquivalenztransformation".
POET funktioniert durch die Neuparametrisierung jedes Neurons mithilfe zweier lernbarer orthogonaler Matrizen und einer festen Zufallsgewichtsmatrix. Da POET die spektralen Eigenschaften der Gewichtsmatrix nachweislich bewahrt, kann es die Zielfunktion stabil optimieren und die Generalisierung verbessern. Das Forschungsteam entwickelte effiziente Approximationsmethoden, die POET flexibel und skalierbar für das Training großer neuronaler Netzwerke machen.
KI mit KI entwickeln
Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.