HyperAIHyperAI

Command Palette

Search for a command to run...

OpenAI nutzt GPT-5.5 auf NVIDIA-Infrastruktur

OpenAI hat sein neuestes Modell GPT-5.5 vorgestellt, das nun als Kernantrieb für die Coding-Anwendung Codex dient. Diese Anwendung läuft auf der leistungsstarken NVIDIA-Infrastruktur der GB200 NVL72-Racksysteme. Seit einigen Wochen setzt NVIDIA internal dieses neue System ein, wobei über 10.000 Mitarbeiter aus allen Bereichen wie Ingenieurwesen, Produktmanagement, Vertrieb und Marketing davon profitieren. Die Ergebnisse werden als bahnbrechend beschrieben, da die Effizienz in der Softwareentwicklung massiv gesteigert wird. Durch die Nutzung der GB200-Systeme sanken die Kosten pro Million Token um das 35-Fache, während die Token-Ausgabe pro Megawatt um das 50-Fache stieg. Dies ermöglicht die skalierbare und wirtschaftliche Nutzung von Modell-Inferenz in Unternehmensumgebungen. Die praktischen Auswirkungen auf den Entwicklungsalltag sind messbar: Debugging-Zyklen, die früher Tage dauerten, werden nun in wenigen Stunden abgeschlossen. Experimente, die zuvor Wochen in Anspruch nahmen, können jetzt innerhalb einer Nacht in komplexen Codebasen durchgeführt werden. Teams in der Lage, End-to-End-Funktionen direkt aus natürlichen Sprachbefehlen zu erstellen, was die Zuverlässigkeit erhöht und Verschwendung reduziert. CEO Jensen Huang forderte in einer Unternehmensmitteilung alle Mitarbeiter auf, diese Technologie umfassend zu nutzen, um das Zeitalter der KI zu beschleunigen. Für den sicheren Einsatz im Unternehmensumfeld wurde eine spezielle Bereitstellungsarchitektur entwickelt. Jeder KI-Agent benötigt eine eigene dedizierte Rechenumgebung, um Datenlecks zu vermeiden. Codex unterstützt dafür sichere Remote-SSH-Verbindungen zu genehmigten Cloud-virtuellen Maschinen (VMs). NVIDIA IT stellte dafür für jeden Mitarbeiter eine eigene VM bereit, die als Sandbox für den Agenten dient. Dies gewährleistet, dass der Zugriff auf echte Unternehmensdaten sicher ist, ohne diese nach außen zu exponieren. Nutzer können den Agenten über eine bekannte Benutzeroberfläche steuern. Ein wichtiger Sicherheitsaspekt ist die Null-Datenspeicherung. Die KI speichert keine Daten dauerhaft, und der Zugriff auf Produktionssysteme erfolgt ausschließlich mit Lesezugriffsrechten über die Kommandozeile. Dies entspricht dem agilen Toolkit, das NVIDIA bereits für andere Automatisierungsworkflows nutzt. Die Einführung von GPT-5.5 und Codex ist der Höhepunkt einer über zehn Jahre dauernden strategischen Partnerschaft zwischen OpenAI und NVIDIA. Diese Zusammenarbeit begann 2016, als Jensen Huang die erste DGX-1-Supercomputer-Einheit persönlich an OpenAI übergeben hat. Die beiden Unternehmen arbeiten seither eng an der gesamten KI-Software- und Hardware-Stack zusammen. NVIDIA war ein früher Partner für OpenAI's Open-Weight-Modelle und optimierte deren Gewichte für Frameworks wie TensorRT-LLM. OpenAI hat zudem die Verpflichtung ausgesprochen, über 10 Gigawatt an NVIDIA-Systemen für seine zukünftige Infrastruktur bereitzustellen, was Millionen von GPUs für Training und Inferenz über Jahre hinweg fundieren wird. Als frühe Partner in der Chip-Entwicklung tauschen die Firmen Feedback aus, das die Hardware-Roadmap von NVIDIA beeinflusst. Dies führte zur gemeinsamen Inbetriebnahme des ersten GB200 NVL72-Clusters mit 100.000 GPUs, der neue Benchmarks in der Systemzuverlässigkeit bei Großprojekten setzte. GPT-5.5 ist das direkte Ergebnis dieser Infrastruktur, die nun mit voller Stärke zur Verfügung steht.

Verwandte Links