Deutsches Team entwickelt DeepSeek R1T2, 200% schneller als Vorläufer
DeepSeek-R2 zögert, also baut die deutsche Firma TNG Technology Consulting GmbH (TNG) ein effizienteres Modell, das R1T2: Es ist 200% schneller als R1-0528 und behält die Intelligenz des Originals bei. DeepSeek-R2 war lang erwartet, doch die Fachwelt konnte anscheinend nicht mehr warten. Das deutsche Unternehmen TNG Technology Consulting GmbH (TNG) hat daher auf Basis der Version R1-0528 von DeepSeek ein neues Modell namens DeepSeek-TNG R1T2 Chimera (kurz R1T2) entwickelt. R1T2 ist ein offener Hybrid-Modell mit 671 Milliarden Parametern, das die Leistungsfähigkeit von R1-0528 beibehält, aber gleichzeitig deutlich schneller und effizienter ist. Im Gegensatz zu R1-0528, das ausführliche und lange Antworten tendiert, bietet R1T2 kurze, prägnante, aber genauso kluge Antworten. Das neue Modell nutzt erneut die von TNG vorgestellte Methode "Assembly-of-Experts" (AoE). Diese Methode kombiniert die Gewichtungstensoren (interne Parameter) verschiedener vorab trainierter Modelle, um ein neues Modell zu erstellen. R1T2 integriert drei Elternmodelle: DeepSeek-R1-0528, DeepSeek-R1 und DeepSeek-V3-0324, wobei es die inferenziellen Fähigkeiten des ersten, das strukturierte Denkmuster des zweiten sowie das präzise Befehlsverhalten des dritten Modells übernimmt. Die Entwicklergemeinde reagierte begeistert auf die Ankündigung. Vaibhav (VB) Srivastav, ein führender Mitarbeiter bei Hugging Face, schrieb auf X: "Fantastisch! DeepSeek R1T2 – 200% schneller als R1-0528, 20% schneller als R1. Es zeigt eine deutlich bessere Performance auf den Datensätzen GPQA und AIME 24, kombiniert DS V3, R1 und R1-0528 in einer AoE-Architektur und steht unter der MIT-Lizenz." Benchmark-Tests des TNG-Teams ergaben, dass R1T2 bis zu 92% der Intelligenz seines intelligentesten Elternmodells, DeepSeek-R1-0528, erreicht, während es die Ausgabe-Tokenanzahl um 60% reduziert. Dies führt zu einer signifikanten Verringerung der Inferenzzeit und des Rechenaufwands, was die Reaktionsgeschwindigkeit verdoppelt. Im Vergleich zu R1 wird die durchschnittliche Kürze der Antworten um etwa 20% erhöht, was für hochdurchflussfähige oder kostenempfindliche Anwendungen ein wichtiger Vorteil ist. AoE-Methodik im Vergleich zur MoE-Struktur Die von TNG entwickelte AoE-Methode ist ein Modellfusionsverfahren, das sich von der herkömmlichen Mixture-of-Experts (MoE)-Architektur unterscheidet. Bei MoE werden verschiedene Komponenten oder "Experten" bedingt nach der Eingabe aktiviert. In großen Modellen wie DeepSeek-V3 und Mixtral werden nur ein Teil der Expertenschichten (z.B., 8 von 256) bei jeder Vorwärtspropagation aktiviert. Dies ermöglicht es, hohe Parameternummern und Spezialisierung zu erreichen, ohne die Inferenzkosten zu explodieren. Bei der AoE-Methode werden die Gewichtungstensoren mehrerer vorab trainierter MoE-Modelle selektiv interpoliert, um ein neues Modell zu erstellen. Dies geschieht in linearer Zeit und ermöglicht es, semantische Merkmale der Elternmodelle zu verstärken oder zu unterdrücken. Indem TNG die Routing-Experthantensoren kombiniert, die für spezialisierte Inferenz zuständig sind, und effizientere Schichten wie die von DeepSeek-V3-0324 beibehält, können Modelle wie R1T und R1T2 die Intelligenz der Elternmodelle erben, ohne deren Längen oder Verzögerungen aufzuweisen. Vorteile für Unternehmen Für CTOs, Plattformbetreiber, Ingenieurleiter und IT-Beschaffungs Teams bietet R1T2 mehrere praktische Vorteile: Kosteneinsparungen: Durch eine Reduzierung der Ausgabe-Token pro Task spart R1T2 GPU-Zeit und Energie, was direkt zu einem Abbau der Infrastrukturkosten führt. Dies ist besonders wichtig in Umgebungen mit hohem Durchsatz oder in Echtzeit. Hohe Inferenzqualität ohne Redundanz: R1T2 behält die meisten inferenziellen Fähigkeiten der Top-Modelle wie R1-0528, aber ohne ihre Längenmängel. Dies ist ideal für mathematische, programmierungs- und logische Aufgaben, bei denen prägnante Antworten bevorzugt werden. Open Source und modifizierbar: Die MIT-Lizenz ermöglicht vollständige Kontrolle und Anpassung, was private Hosting, Modellalignment oder weiteres Training in reglementierten oder isolierten Umgebungen unterstützt. Modulare Zukunft: Die AoE-Methode deutet auf eine modularere Zukunft hin, in der Unternehmen spezialisierte Varianten durch Neukombination vorhandener Modelle erstellen können, anstatt sie von Grund auf neu zu trainieren. Es ist jedoch zu beachten, dass R1T2 für Szenarien, die Funktionsaufrufe oder Werkzeugnutzung erfordern, nicht empfohlen wird. TNG bietet bereits frühere Chimera-Varianten über Plattformen wie OpenRouter und Chutes an, die täglich Milliarden von Token verarbeiten. Die Veröffentlichung von R1T2 markiert einen Fortschritt in dieser öffentlich verfügbaren Entwicklung. Europäische Unternehmen sollten evaluiert, ob R1T2 den Bestimmungen des EU-AI-Gesetzes entspricht, das ab dem 2. August 2025 in Kraft tritt. Unternehmen, die in der EU operieren, müssen die Vorschriften einhalten und gegebenenfalls die Nutzung des Modells ab diesem Datum einstellen. Amerikanische Unternehmen, die in den USA operieren und amerikanische oder andere Benutzer bedienen, stehen unter keiner solchen Verpflichtung, haben aber bei Dienstleistungen für EU-Benutzer bestimmte Klauseln zu beachten. Zusammenfassend zeigt sich, dass diese Entwicklung einen Trend widerspiegelt, bei dem immer mehr europäische Teams an der Verbesserung und Adaptierung internationaler Modelle arbeiten. Dies unterstreicht die wachsende Rolle Europas in der technologischen Forschung und Entwicklung, ähnlich wie China in den letzten Jahren vom Nachzieher zum Mitläufer und jetzt zum Vorreiter geworden ist. TNG Technology Consulting GmbH, mit seinem langjährigen Engagement in der KI-Forschung und -Entwicklung, ist ein maßgeblicher Akteur in dieser Bewegung. Mit 917 Mitarbeitern, von denen über 50% einen Doktorgrad in Mathematik, Physik oder Informatik besitzen, verfügt TNG über die fachliche Kompetenz, um solche fortschrittliche Modelle zu entwickeln und zu verbreiten. Henrik Klagges, Co-Gründer und erste Autor der zugehörigen Publikation, hat TNG vor 24 Jahren gegründet. Sein Hintergrund in der KI-Forschung und -Entwicklung trägt maßgeblich zur Qualität und Innovationskraft des Unternehmens bei. Die Veröffentlichung von R1T2 unterstreicht TNGs Commitment, kosteneffiziente und leistungsfähige Lösungen für den Markt bereitzustellen.
