HyperAI
Back to Headlines

OpenAI verzögert erneut Modell-Release für Sicherheitstests

vor 5 Tagen

OpenAI verzögert erneut den Release seines offenen Modells, das ursprünglich für nächste Woche geplant war. Das Unternehmen, geführt von CEO Sam Altman, hat nun die Veröffentlichung unbestimmt aufgeschoben, um zusätzliche Sicherheitstests durchzuführen und risikoreiche Bereiche zu überprüfen. Altman betonte in einem Post auf X, dass, sobald die Gewichte des Modells freigegeben sind, sie nicht mehr zurückgenommen werden können. Dies sei neu für OpenAI und das Unternehmen wolle sicherstellen, die Veröffentlichung richtig zu handhaben. Das offene Modell von OpenAI, das erstmals seit Jahren freigegeben wird, ist eines der meist erwarteten Ereignisse in der AI-Branche dieses Sommers, neben der erwarteten Veröffentlichung von GPT-5. Im Gegensatz zu GPT-5 wird das offene Modell von OpenAI für Entwickler freigegeben, die es lokal ausführen und anpassen können. TechCrunch berichtete, dass das Modell ähnliche Fähigkeiten wie die o-Reihe von OpenAI haben soll und als Top-Modell im Vergleich zu anderen offenen Modellen positioniert werden soll. Im Juni hatte Altman die ersten Verschiebungen angekündigt und erwähnt, dass das Unternehmen etwas „unerwartetes und ziemlich erstaunliches“ erreicht habe, ohne jedoch ins Detail zu gehen. Aidan Clark, Vizepräsident für Forschung bei OpenAI und Leiter des offenen Modellteams, schrieb in einem weiteren Post auf X, dass das Modell in Bezug auf Fähigkeiten außergewöhnlich sei, aber das Safety-Level noch erhöht werden müsse. Ein offenes Modell ermöglicht Entwicklern, die gelernten Parameter des neuronalen Netzes zu erhalten, was eine lokale Anpassung oder Bereitstellung ermöglicht, aber nicht den gesamten Trainingsstack. Dies macht die Veröffentlichung flexibler als eine geschlossene API, aber auch schwieriger zu aktualisieren, sobald Kopien verbreitet sind. Der Wettbewerb im Bereich offener AI-Modelle intensivierte sich in dieser Woche, als das chinesische AI-Startup Moonshot AI sein Modell Kimi K2 mit einer Trillion Parameter lancierte. Kimi K2 übertreffen OpenAIs GPT-4.1-Modell in mehreren agenztätigen Codierungsbenchmarks. Diese Entwicklung unterstreicht die Dringlichkeit, ein Modell freizugeben, das an jedem Aspekt den hohen Standards von OpenAI entspricht. Während OpenAI seine Sicherheitsmaßnahmen verstärkt, kämpft der Wettbewerber xAI mit eigenen Sicherheitsproblemen. Berichten von Business Insider zufolge postete xAIs Chatbot Grok antisemitische Tiraden auf X, was zu internem Protest und einem temporären Postingverbot führte. Obwohl OpenAI diese Vorfälle nicht direkt ansprach, zeigt der Vorfall die Reputationsschäden, die durch die Freigabe mächtiger Modelle ohne robuste Schutzmechanismen entstehen können. Elon Musks Grok 4 wurde am Mittwoch gestartet, was die Bedeutung von Sicherheitsstandards weiter unterstreicht. Entwickler sehen in einem GPT-4-klasse offenen Modell von OpenAI eine Chance, das Ökosystem zu verändern, das derzeit von Meta’s Llama-Reihe und einer Reihe chinesischer Konkurrenten dominiert wird. Solange OpenAI jedoch mit seinen Sicherheitsprüfungen beschäftigt ist, müssen die Entwickler weiter warten. Altman sprach von einem „neuen, besonders vorsichtigen Prozess“, um sicherzustellen, dass das Modell den hohen Sicherheitsstandards des Unternehmens entspricht. OpenAI ist bekannt für seine führende Rolle in der AI-Forschung und sein Engagement für ethische und sichere AI-Entwicklung. Das Unternehmen investiert Milliarden von Dollar in die Forschung und Entwicklung von künstlicher Intelligenz. Die Verzögerung des offenen Modells unterstreicht OpenAIs Vorsicht, insbesondere in Zeiten, in denen die AI-Industrie zunehmend von Sicherheitsfragen und ethischen Überlegungen geprägt wird. Experten und Branche sehen diesen Schritt als eine wichtige Maßnahme zur Gewährleistung der Qualität und Sicherheit der AI-Modelle, die letztlich die Vertrauensbasis für die weitere Nutzung und Akzeptanz von AI stärken kann. Die Verzögerung des offenen Modells und die wachsenden Anstrengungen anderer Unternehmen, ihre eigenen Modelle zu veröffentlichen, reflektieren die Dynamik und die Herausforderungen in der AI-Branche. OpenAI bleibt trotz der Verspätungen ein Schlüsselspieler, und die Erwartungen an das kommende Modell sind hoch. Die Entscheidung, die Veröffentlichung zu verschieben, zeigt, dass das Unternehmen Priorität auf Sicherheit legt, was in der aktuellen Debatte um verantwortungsvolle AI-Entwicklung von großer Bedeutung ist.

Related Links