HyperAIHyperAI
Back to Headlines

Kleines Modell, große Leistung: HRM besiegt große LLMs

vor 6 Tagen

Ein kleines Modell, aber ein großes Ergebnis: Das Hierarchical Reasoning Model (HRM) stellt die gängige Annahme in Frage, dass künstliche Intelligenz nur durch Größe und Ressourcenentwicklung erfolgreich sein kann. Mit nur 27 Millionen Parametern – im Vergleich zu den Hunderten von Milliarden bei Modellen wie GPT-5 – und einer Trainingsdauer, die sich auf zwei GPU-Stunden für anspruchsvolle Sudoku-Aufgaben beschränkt, erreicht HRM Leistungen, die bisher nur von riesigen Systemen erwartet wurden. Entwickelt von Guan Wang und seinem Team, demonstriert HRM eine neue Herangehensweise an kognitive Aufgaben: statt auf brute-force-Verarbeitung zu setzen, nutzt es eine hierarchische Struktur, die Probleme schrittweise analysiert und strategisch löst – ähnlich wie ein menschlicher Denkprozess. Die Ergebnisse sind beeindruckend. Auf dem ARC-AGI-Test, einem der anspruchsvollsten Benchmarks für allgemeine kognitive Fähigkeiten bei KI, erreichte HRM mit 40,3 Prozent die beste Leistung unter den verglichenen Modellen – deutlich vor Claude 3.5 (21,2 Prozent) und OpenAI’s o3-mini-high (34,5 Prozent). Bei extrem schwierigen Sudoku-Rätseln, die selbst leistungsstarke Modelle scheitern lassen, löste HRM 55 Prozent der Aufgaben – während Claude und o3-mini-null Prozent erreichten. Ähnlich überzeugend zeigt sich das Modell bei der Lösung von 30×30-Gitterrätseln: HRM fand die optimale Lösung in 74,5 Prozent der Fälle, während die Konkurrenz komplett versagte. Diese Leistung ist besonders bemerkenswert, weil HRM nicht auf riesigen Datenmengen oder massiven Rechenressourcen basiert. Stattdessen nutzt es eine klare Architektur, die zwischen verschiedenen Denkstufen unterscheidet – von schnellen, intuitiven Entscheidungen bis hin zu tiefgreifenden, strukturierten Überlegungen. Dieser Ansatz ermöglicht eine effiziente Nutzung von Ressourcen, ohne die Leistung zu opfern. Es zeigt, dass Intelligenz in der KI nicht unbedingt mit Größe korreliert, sondern vielmehr von der Qualität der Denkstruktur abhängt. Industrieexperten reagieren mit Erstaunen und Skepsis zugleich. „Das ist eine Revolution in der Denkweise“, sagt ein KI-Forscher von einem führenden Tech-Institut. „Es beweist, dass wir nicht mehr nur mehr Parameter und mehr Daten brauchen, sondern intelligente Architekturen, die denken wie Menschen.“ Andere warnen jedoch vor einer Überbewertung: „Die Ergebnisse sind beeindruckend, aber auf spezifischen Benchmarks. Ob HRM in realen, komplexen Anwendungen ebenso gut abschneidet, bleibt abzuwarten.“ HRM ist kein Produkt großer Tech-Unternehmen, sondern ein Forschungsprojekt, das die Grenzen des etablierten Paradigmas herausfordert. Es könnte den Weg für energieeffizientere, schneller trainierbare und leichtgewichtige KI-Systeme bahnen – besonders relevant für Edge-Computing, mobile Anwendungen oder Ressourcen-begrenzte Umgebungen. Die Botschaft ist klar: Die Zukunft der KI könnte nicht in der Größe, sondern in der Intelligenz der Architektur liegen.

Related Links