NVIDIA stellt offenbare Nemotron-3-Modelle für agente AI vor
NVIDIA hat die Nemotron 3-Familie offener KI-Modelle vorgestellt – eine Reihe von Modellen, Daten und Bibliotheken, die darauf abzielen, transparente, effiziente und spezialisierte agente-basierte KI-Entwicklung über Branchen hinweg zu ermöglichen. Die Familie umfasst drei Größen: Nano, Super und Ultra und basiert auf einer bahnbrechenden hybriden latenten Mixture-of-Experts-(MoE)-Architektur, die Entwicklern hilft, zuverlässige Multi-Agenten-Systeme skalierbar zu bauen und einzusetzen. Während Unternehmen von einzelnen Chatbots zu kooperativen Multi-Agenten-Systemen übergehen, stehen Entwickler vor Herausforderungen wie Kommunikationsaufwand, Kontextverdrift und hohe Inferenzkosten. Zudem ist Transparenz entscheidend, um Vertrauen in Modelle zu setzen, die komplexe Workflows automatisieren. Nemotron 3 adressiert diese Probleme direkt und liefert Leistung und Offenheit, die für die Entwicklung spezialisierter agenter KI unerlässlich sind. Jensen Huang, CEO von NVIDIA, betonte: „Offene Innovation ist die Grundlage für Fortschritte in der KI. Mit Nemotron verwandeln wir fortschrittliche KI in eine offene Plattform, die Entwicklern Transparenz und Effizienz bietet, um agente-basierte Systeme skalierbar zu bauen.“ Die Plattform unterstützt NVIDIAs Bemühungen um souveräne KI, wobei Organisationen aus Europa bis Süd-Korea offene, transparente und effiziente Modelle nutzen, um KI-Systeme an ihre eigenen Daten, Vorschriften und Werte anzupassen. Early Adopter wie Accenture, Cadence, CrowdStrike, Cursor, Deloitte, EY, Oracle Cloud Infrastructure, Palantir, Perplexity, ServiceNow, Siemens, Synopsys und Zoom integrieren die Nemotron-Modelle bereits in ihre Workflows in Bereichen wie Fertigung, Cybersicherheit, Softwareentwicklung und Medien. Bill McDermott von ServiceNow hob hervor: „Mit NVIDIA entwickeln wir die Zukunft der KI – und heute setzen wir einen entscheidenden Schritt voran, um Führungskräfte in allen Branchen zu befähigen, ihre agente-basierte Strategie zu beschleunigen.“ Die hybride MoE-Architektur von Nemotron 3 ermöglicht eine effiziente Aufgabenverteilung zwischen hochleistungsfähigen Proprietärmodellen und kostengünstigen Open-Source-Modellen. Perplexity nutzt einen Agenten-Router, um Aufgaben je nach Anforderung an das beste fine-tuned Open-Source-Modell wie Nemotron 3 Ultra oder ein proprietäres Modell zu leiten – so wird Geschwindigkeit, Effizienz und Skalierung gewährleistet. Startups profitieren von schnellerem Prototyping und schnellerer Skalierung. General Catalyst und Mayfield nutzen die Nemotron-Modelle, um AI-Teammates für menschlich-KI-Kollaboration zu entwickeln. Navin Chaddha von Mayfield betonte: „NVIDIAs offene Modell-Stack und das Inception-Programm geben jungen Unternehmen die Werkzeuge, Infrastruktur und Kosteneffizienz, um schnell zu experimentieren, sich zu differenzieren und zu skalieren.“ Nemotron 3 Nano ist ab sofort verfügbar und optimiert für Aufgaben wie Software-Debugging, Zusammenfassung und Informationsabruf mit geringen Inferenzkosten. Mit bis zu 4x höherer Token-Durchsatzrate gegenüber Nemotron 2 Nano und bis zu 60 % geringerem Generierungsaufwand für Schlussfolgerungen senkt es die Kosten erheblich. Ein Kontextfenster von einer Million Tokens verbessert die Langzeitgedächtnisleistung und Genauigkeit bei komplexen, mehrschrittigen Aufgaben. Unabhängige Tests von Artificial Analysis werten es als am offensivsten und effizientesten Modell seiner Klasse. Nemotron 3 Super eignet sich für Anwendungen mit vielen kooperierenden Agenten und niedriger Latenz, während Nemotron 3 Ultra als leistungsstarker Reasoning-Engine für tiefgehende Forschung und strategische Planung dient. Beide nutzen NVIDIAs 4-Bit-NVFP4-Training auf der Blackwell-Architektur, was Speicherbedarf reduziert und Training beschleunigt – ohne Genauigkeitsverlust. Zusätzlich veröffentlichte NVIDIA umfangreiche Open-Source-Daten (drei Billionen Tokens) und Bibliotheken wie NeMo Gym, NeMo RL und NeMo Evaluator für Training, Post-Training und Sicherheitsvalidierung. Alle Ressourcen sind auf GitHub und Hugging Face zugänglich. Die Modelle sind in LM Studio, llama.cpp, SGLang und vLLM integriert, und Prime Intellect sowie Unsloth integrieren NeMo Gym direkt in ihre Workflows. Nemotron 3 Nano ist ab sofort auf Hugging Face, Baseten, DeepInfra, Fireworks, FriendliAI, OpenRouter und Together AI verfügbar, sowie über AWS Bedrock, Google Cloud, CoreWeave, Crusoe, Microsoft Foundry, Nebius, Nscale und Yotta. Als NVIDIA NIM-Mikroservice steht es für sichere, skalierbare Bereitstellung auf NVIDIA-Infrastruktur zur Verfügung. Nemotron 3 Super und Ultra sind für das erste Halbjahr 2026 geplant. Bewertung: Branchenexperten sehen in Nemotron 3 eine bedeutende Stärkung der Open-Source-Strategie von NVIDIA, die KI-Entwicklung zugänglicher und nachvollziehbarer macht. Die Kombination aus effizienter Architektur, offenen Daten und breiter Integration in bestehende Tools stärkt die Position von NVIDIA als KI-Plattform-Player. Insbesondere die Fokussierung auf agente-basierte Systeme und die Unterstützung von Startups durch das Inception-Programm signalisieren eine strategische Ausrichtung auf die Zukunft der KI-Entwicklung. Die Einführung der MoE-Architektur in offenen Modellen ist ein Meilenstein, der die Effizienz von Multi-Agenten-Systemen erheblich steigern könnte.
