HyperAIHyperAI

Command Palette

Search for a command to run...

NVIDIA DGX-Systeme bringen leistungsstarke KI-Entwicklung auf den Desktop

NVIDIA hat auf der CES 2025 zwei neue deskside-AI-Supercomputer vorgestellt: den DGX Spark und den DGX Station, die Entwicklern den Zugriff auf leistungsstarke, offene KI-Modelle direkt am Schreibtisch ermöglichen. Beide Systeme basieren auf der NVIDIA Grace Blackwell-Architektur und sind darauf ausgelegt, sowohl kleinere Modelle mit bis zu 100 Milliarden Parametern (DGX Spark) als auch extrem große frontier-Modelle mit bis zu einer Billion Parametern (DGX Station) lokal zu betreiben. Der DGX Spark nutzt die NVFP4-Datenformate, die KI-Modelle um bis zu 70 % komprimieren und gleichzeitig die Leistung steigern, ohne an Intelligenz zu verlieren. Durch Zusammenarbeit mit der Open-Source-Community – etwa mit llama.cpp – wurde die Performance um durchschnittlich 35 % gesteigert, und Ladezeiten für LLMs wurden erheblich verkürzt. Der DGX Station, ausgestattet mit dem GB300 Grace Blackwell Ultra-Superchip und 775 GB koherenter Speicher in FP4-Genauigkeit, ermöglicht das lokale Ausführen von Modellen wie Kimi-K2 Thinking, Meta Llama 4 Maverick, Qwen3 und OpenAI gpt-oss-120b. Für Forschungslabore und Unternehmen bietet er eine bisher unerreichte Rechenleistung direkt am Arbeitsplatz. Die Systeme sind mit NVIDIA AI-Software, CUDA-X-Bibliotheken und Unterstützung für moderne Frameworks vorinstalliert, was eine nahtlose Integration in den Entwicklungsworkflow ermöglicht. Entwickler können nun lokal Prototypen erstellen, Modelle feinjustieren, inferieren und Datenwissenschaft betreiben – ohne auf externe Cloud-Ressourcen angewiesen zu sein. Besonders hervorzuheben ist die Rolle des DGX Station für Framework-Entwicklung: Mit der Möglichkeit, direkt auf dem GB300-Superchip zu testen, beschleunigt er Entwicklungszyklen erheblich. Community-Entwickler wie Jerry Zhou von SGLang betonen, dass sie nun große Modelle wie Qwen3-235B lokal testen und CUDA-Kerne für extrem große Matrizen entwickeln können – ohne Abhängigkeit von Cloud-Racks. Im Bereich Kreationen wird die Leistung durch Unterstützung von Diffusions- und Videogenerationsmodellen wie FLUX.2, FLUX.1 und Qwen-Image mit NVFP4 deutlich gesteigert. Live-Demos bei der CES zeigen, dass der DGX Spark Videoerzeugungsaufgaben bis zu achtmal schneller als ein MacBook Pro M4 Max bewältigt. Auch die Modding-Plattform RTX Remix wird durch den DGX Spark beschleunigt, was die Erstellung von 3D-Inhalten in Echtzeit ermöglicht. Zudem wird ein lokaler CUDA-Coding-Assistent mit NVIDIA Nsight demonstriert, der Sicherheit und Datenschutz bei der KI-gestützten Softwareentwicklung gewährleistet. Industrieführer wie Hugging Face, IBM und JetBrains unterstreichen die Bedeutung der lokalen KI: Hugging Face zeigt, wie der DGX Spark mit dem Roboter Reachy Mini interaktive, körperliche AI-Agenten ermöglicht. IBM präsentiert OpenRAG auf Spark als komplette, autonome RAG-Stack-Lösung. JetBrains betont, dass der DGX Spark die Kontrolle über IP und Sicherheit in hybriden Umgebungen stärkt. Auch das autonome Fahrzeug TRINITY, das mit DGX Spark als KI-Brain ausgestattet ist, zeigt, wie KI-Modelle in der realen Welt eingesetzt werden können – mit conversationalen, zielorientierten Interaktionen. NVIDIA erweitert zudem die Playbooks für DGX Spark um sechs neue und vier aktualisierte Anleitungen zu Themen wie Genomik, Finanzanalyse, Robotik und Modellfeinjustierung. NVIDIA AI Enterprise-Software ist ab Januar 2025 für DGX Spark und GB10-Systeme verfügbar. Die Geräte sind ab sofort bei Herstellern wie Acer, Dell, HP, ASUS und Lenovo erhältlich; der DGX Station wird ab Frühjahr 2026 über ASUS, Dell und Supermicro geliefert. Industrieexperten sehen in den neuen Systemen einen Paradigmenwechsel: Die lokale KI-Entwicklung wird schneller, sicherer und unabhängiger von zentralen Infrastrukturen. Mit der Integration von frontier-Modellen direkt am Desktop wird die Innovationsgeschwindigkeit in Forschung, Kreation und Industrie massiv beschleunigt.

Verwandte Links

NVIDIA DGX-Systeme bringen leistungsstarke KI-Entwicklung auf den Desktop | Aktuelle Beiträge | HyperAI