HyperAIHyperAI

Command Palette

Search for a command to run...

vor einem Monat

Weniger ist mehr: Rekursives Schlussfolgern mit winzigen Netzwerken

Alexia Jolicoeur-Martineau

Weniger ist mehr: Rekursives Schlussfolgern mit winzigen Netzwerken

Abstract

Das hierarchische Schlussfolgerungsmodell (Hierarchical Reasoning Model, HRM) ist ein neuartiger Ansatz, der zwei kleine neuronale Netzwerke verwendet, die mit unterschiedlichen Frequenzen rekursiv arbeiten. Dies biologisch inspirierter Ansatz übertrifft große Sprachmodelle (Large Language Models, LLMs) bei anspruchsvollen Rätselaufgaben wie Sudoku, Labyrinthen und ARC-AGI – und das, obwohl er mit kleinen Modellen (27 M Parameter) und nur begrenzten Daten (etwa 1000 Beispiele) trainiert wurde. HRM bietet großes Potenzial, komplexe Probleme mit kleinen Netzwerken zu lösen, ist jedoch bisher noch nicht hinreichend verstanden und könnte suboptimal sein. Wir stellen das Tiny Recursive Model (TRM) vor, einen wesentlich einfacheren rekursiven Schlussfolgerungsansatz, der eine deutlich höhere Verallgemeinerungsfähigkeit als HRM erreicht, und zwar mit einem einzigen winzigen Netzwerk mit nur zwei Schichten. Mit lediglich 7 M Parametern erzielt TRM eine Testgenauigkeit von 45 % auf ARC-AGI-1 und 8 % auf ARC-AGI-2 – Werte, die höher sind als die der meisten LLMs (z. B. Deepseek R1, o3-mini, Gemini 2.5 Pro), obwohl TRM weniger als 0,01 % der Parameter dieser Modelle verwendet.

KI mit KI entwickeln

Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.

KI-Co-Coding
Sofort einsatzbereit GPUs
Beste Preise
Jetzt starten

Hyper Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Weniger ist mehr: Rekursives Schlussfolgern mit winzigen Netzwerken | Forschungsarbeiten | HyperAI