HyperAIHyperAI

Command Palette

Search for a command to run...

LLM Basierend Auf Grundprinzipien, Ein Neues Trainingsparadigma POET

Datum

vor 3 Monaten

Reparameterized Training via Orthogonal Equivalence Transformation (POET) ist ein neuartiger reparametrisierter Trainingsalgorithmus, der am 9. Juni 2025 vom Max-Planck-Institut in Deutschland und der Chinesischen Universität Hongkong vorgeschlagen wurde. Er nutzt die orthogonale Äquivalenztransformation zur Optimierung von Neuronen. Die Ergebnisse der Studie sind:Reparametrisiertes LLM-Training mittels orthogonaler Äquivalenztransformation".

POET funktioniert durch die Neuparametrisierung jedes Neurons mithilfe zweier lernbarer orthogonaler Matrizen und einer festen Zufallsgewichtsmatrix. Da POET die spektralen Eigenschaften der Gewichtsmatrix nachweislich bewahrt, kann es die Zielfunktion stabil optimieren und die Generalisierung verbessern. Das Forschungsteam entwickelte effiziente Approximationsmethoden, die POET flexibel und skalierbar für das Training großer neuronaler Netzwerke machen.

KI mit KI entwickeln

Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.

KI-Co-Coding
Sofort einsatzbereit GPUs
Beste Preise
Jetzt starten

Hyper Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
LLM Basierend Auf Grundprinzipien, Ein Neues Trainingsparadigma POET | Wiki | HyperAI