HyperAIHyperAI

Command Palette

Search for a command to run...

Energiebasierte Transformatoren (EBTs)

Datum

vor 3 Monaten

Energiebasierte Transformatoren (EBTs) sind ein neuer Typ energiebasierter Modelle, die von einem Team der University of Virginia am 2. Juli 2025 vorgeschlagen wurden. Sie können jedem Eingabe- und Kandidatenvorhersagepaar einen Energiewert zuweisen und eine Vorhersage erzielen, indem sie die Energie basierend auf dem Gradientenabstieg bis zur Konvergenz minimieren.Energiebasierte Transformatoren sind skalierbare Lerner und Denker".

EBTs skalieren während des Trainings schneller als der aktuelle Transformer++-Ansatz sowohl bei diskreten als auch bei kontinuierlichen Modalitätsaufgaben und erreichen Skalierungsverbesserungen von bis zu 35% in mehreren Dimensionen, einschließlich Datenvolumen, Batchgröße, Anzahl der Parameter, FLOPs und Modelltiefe. Selbst bei vergleichbarer oder sogar schlechterer Vortrainingsleistung übertreffen EBTs bestehende Modelle bei den meisten nachgelagerten Aufgaben und zeigen im Vergleich zu bestehenden Methoden überlegene Generalisierungsfähigkeiten.

EBTs sind ein vielversprechendes neues Paradigma, das die Lern- und Denkfähigkeiten eines Modells gleichzeitig erweitern kann.

KI mit KI entwickeln

Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.

KI-Co-Coding
Sofort einsatzbereit GPUs
Beste Preise
Jetzt starten

Hyper Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp