HyperAIHyperAI
Back to Headlines

OpenAI veröffentlicht GPT-OSS: Große Modelle auch auf 16GB-Notebooks

vor 3 Tagen

OpenAI hat nach mehreren Wochen der Vorfreude auf GPT-5 nun zwei neue Open-Source-Modellversionen vorgestellt: gpt-oss-120b mit etwa 117 Milliarden Parametern und gpt-oss-20b mit rund 21 Milliarden Parametern. Beide Modelle sind ab sofort kostenlos über Hugging Face verfügbar und nutzen die MXFP4-Quantisierung. Sie werden unter der Apache-2.0-Lizenz veröffentlicht, was bedeutet, dass sie frei für kommerzielle Nutzung, Weitergabe und Anpassung genutzt werden dürfen. Die Trainingsdaten wurden jedoch nicht offengelegt. Die letzte öffentliche Gewichtsveröffentlichung von OpenAI datiert auf 2019 mit GPT-2 – dies markiert somit einen signifikanten Wandel im Ansatz des Unternehmens. Beide Modelle basieren auf einer sogenannten Mixture-of-Experts-Architektur (MoE). gpt-oss-120b verfügt über 128 Experten, wobei pro Token vier aktiviert werden, während gpt-oss-20b 32 Experten nutzt. Beide haben einen Kontextfenster von 128.000 Tokens. Die Modelle wurden auf umfangreichen Textdaten trainiert, die sich auf STEM-Fächer, Allgemeinwissen und Programmierung konzentrieren, wobei gefährliche oder sensible Inhalte wie Chemie, Biologie oder Kernenergie ausgeschlossen wurden. In Benchmark-Tests erzielen die Modelle beeindruckende Ergebnisse. gpt-oss-120b erreicht Leistungen nahe oder sogar über denen von OpenAIs o4-mini in Aufgaben wie AIME, GPQA und MMLU. In Tools-Aufruf-Tests wie SWE-bench, Codeforces und Tau-Bench zeigt es starke Fähigkeiten. Besonders bemerkenswert: Im HealthBench-Test übertrifft es sogar spezifische proprietäre Modelle wie o1 und GPT-4o. Auch gpt-oss-20b schneidet gut ab – es kann auf Geräten mit nur 16 GB RAM wie Laptops lokal laufen und ist damit ideal für schnelle Entwicklung und Prototyping. OpenAI betont, dass die Modell-„Denkketten“ (Chain-of-Thought) unüberwacht sind, um Forschern die Möglichkeit zu geben, eigene Überwachungssysteme zu entwickeln. Dies ist Teil einer größeren Sicherheitsstrategie: Die Modelle wurden gründlich auf Risiken getestet, auch unter extremen Bedingungen wie adversarialer Fine-Tuning in sensiblen Bereichen. Ergebnisse zeigen, dass selbst nach solchen Angriffen gpt-oss-120b nicht die intern definierte Schwelle für „hohes Risiko“ erreicht. Zur Förderung der Sicherheit kündigt OpenAI einen Red-Team-Challenge-Wettbewerb mit bis zu 500.000 US-Dollar Preisgeld an, bei dem Entwickler weltweit helfen sollen, neue Sicherheitslücken aufzudecken. Die Modelle sind bereits in Plattformen wie LM Studio, Ollama, AWS, Azure, Baseten und Databricks integriert. Die Ankündigung folgt auf öffentliche Aussagen von CEO Sam Altman, der im Januar erklärte, dass OpenAI in der Vergangenheit „auf der falschen Seite“ der Open-Source-Bewegung gestanden habe – insbesondere nach dem Aufstieg von Modellen wie DeepSeek und Qwen aus China. Die neuen Modelle gelten daher als direkte Reaktion auf den wachsenden Druck durch Open-Source-Konkurrenz. Altman betont, dass OpenAI weiterhin seiner ursprünglichen Mission folgt: die Entwicklung einer allgemeinen künstlichen Intelligenz (AGI), die der gesamten Menschheit zugutekommt. Die Einführung dieser Modelle sei ein Schritt hin zu einem offenen, demokratisch geprägten und weltweit zugänglichen KI-Ökosystem, das auf US-Werten basiert. Die Ankündigung markiert einen Wendepunkt für OpenAI – nicht nur technisch, sondern auch strategisch und ethisch.

Related Links