HyperAIHyperAI
Back to Headlines

ChatGPT bringt Modellpicker zurück trotz GPT-5-Proteste

vor einem Tag

Als OpenAI vor einer Woche GPT-5 vorstellte, versprach das Unternehmen, mit dem neuen Modell die ChatGPT-Oberfläche zu vereinfachen. GPT-5 sollte als „One-Size-Fits-All“-Modell fungieren, das über einen intelligenten Router automatisch entscheidet, welcher AI-Modelltyp am besten zur jeweiligen Anfrage passt. Ziel war es, den komplizierten Modellpicker zu ersetzen – ein Menü, das OpenAI-Chef Sam Altman selbst als unangenehm bezeichnete. Doch die Realität sieht anders aus: GPT-5 hat sich nicht als einheitliches, vereinfachendes System erwiesen. Stattdessen führte Altman am Dienstag neue Einstellungen ein: „Auto“, „Fast“ und „Thinking“. Die „Auto“-Funktion soll den ursprünglichen Router darstellen, doch Nutzer können nun auch direkt auf schnellere oder tiefgründigere Modelle zugreifen – was den ursprünglichen Simplifizierungsanspruch untergräbt. Zudem wurde GPT-4o, das vor Kurzem abgeschaltet wurde, wieder als Option für zahlende Nutzer verfügbar gemacht, ebenso GPT-4.1 und o3. GPT-4o ist nun standardmäßig im Modellpicker enthalten, andere Modelle können über die Einstellungen hinzugefügt werden. Die Rückkehr von GPT-4o war notwendig, nachdem der Ausschluss massive Kritik ausgelöst hatte. Viele Nutzer hatten emotionale Bindungen zu den Antworten und der Persönlichkeit von GPT-4o entwickelt – so stark, dass in San Francisco sogar eine Trauerfeier für Anthropic’s Claude 3.5 Sonnet stattfand, als das Modell offline ging. Auch GPT-5 zeigte am Launchtag technische Probleme: Der Router funktionierte nicht zuverlässig, was zu enttäuschten Nutzern führte. Altman musste in einem Reddit-AMA-Session die Fehler eingestehen. Nick Turley, Leiter von ChatGPT bei OpenAI, räumte ein, dass die Entscheidung, GPT-4o vorübergehend abzuschalten, ein Fehler war. Er sei überrascht gewesen, „wie stark die emotionale Bindung“ der Nutzer an bestimmte Modelle sei. „Es geht nicht nur um Veränderung, sondern auch um die Persönlichkeit eines Modells“, sagte er. OpenAI arbeite nun daran, die „Wärme“ von GPT-4o in GPT-5 zu integrieren, ohne jedoch dessen oft als störend empfundene Eigenschaften zu übernehmen. Ziel bleibt weiterhin die Vereinfachung für die meisten Nutzer – besonders die 700 Millionen wöchentlichen User, die nur das Standardmodell nutzen. „Wir wollen keine Auswahl, die überfordert“, betonte Turley. Doch die Bedürfnisse der „Power-User“ mit spezifischen Vorlieben für Länge, Stil oder Denkweise müssen berücksichtigt werden. OpenAI will künftig bei Modell-Depreciations vorher warnen, wie es bereits bei Enterprise- und API-Plänen üblich ist. Trotz der Kritik stieg die Nutzung von ChatGPT nach GPT-5s Einführung an. Turley sieht dies als Hinweis darauf, dass viele Nutzer von neuen Funktionen wie dem „Thinking“-Modus begeistert sind. Gleichzeitig zeigt die Reaktion, dass OpenAI bei der Skalierung von KI-Produkten vor einer schwierigen Aufgabe steht: Einerseits muss die Benutzererfahrung für Durchschnittsnutzer einfach und vorhersehbar sein, andererseits müssen die spezifischen Präferenzen von engagierten Nutzern respektiert werden. Die Lösung liegt in mehr Individualisierung und vorheriger Kommunikation – ein Weg, der noch weitgehend unerforscht ist.

Related Links