OpenAI korrigiert fehlerhafte Charts im GPT-5-Livestream
Während der Live-Demo von OpenAI’s neuestem KI-Modell GPT-5 am Donnerstag achteten viele Zuschauer auf die technischen Leistungsdaten – doch einige bemerkten schnell, dass etwas an den dargestellten Diagrammen nicht stimmte. Mehrere Grafiken im Livestream enthielten offensichtliche Verzerrungen: Eine verglich die Modelle GPT-5 und OpenAI o3 anhand des Metriks „Coding Deception“ und zeigte bei GPT-5, das mit 50 % eine höhere Täuschungsrate aufwies, einen kleineren Balken als bei o3, das mit 47,4 % deutlich geringere Werte aufwies. Ein weiteres Diagramm zeigte zwei Werte – 69,1 % und 30,8 % – mit identischer Balkenlänge, obwohl der erste Wert deutlich höher ist. Ein dritter Balken, der 52,8 % darstellte, war sogar größer als beide, obwohl er kleiner ist. OpenAI-Chef Sam Altman reagierte prompt und erklärte auf Twitter: „Wow, ein mega Chart-Schlamassel von uns früher.“ Ein Marketingmitarbeiter von OpenAI bestätigte, dass die Fehler im anschließenden Blogbeitrag korrigiert wurden und entschuldigte sich für die „unabsichtliche Chart-Kriminalität“. Die Verzerrungen wurden offenbar bei der Visualisierung der Daten übersehen, wobei nicht klar ist, ob KI-Systeme zur Erstellung der Grafiken genutzt wurden. OpenAI gab bislang keine weiteren Stellungnahmen ab. Solche technischen Pannen sind in der Tech-Welt nicht ungewöhnlich. Bei der Vorstellung von Microsofts KI-Chatsystem Bing im Jahr 2023 erwähnte der Bot fälschlicherweise Lautstärke und kurzes Kabel als Nachteile eines kabellosen Staubsaugers. Auch Google’s damaliger KI-Assistent Bard (heute Gemini) lieferte in einem Werbevideo eine falsche Antwort zum James Webb-Weltraumteleskop. Diese Beispiele zeigen, dass selbst bei hochkarätigen Präsentationen menschliche Fehler und technische Schwächen auftreten können – besonders bei der schnellen Erstellung von Visualisierungen unter Druck. Die GPT-5-Demo selbst wurde dennoch als bedeutender Meilenstein in der Entwicklung von KI-Systemen gefeiert. Die Modelle sollen in der Lage sein, komplexere Aufgaben zu lösen, bessere Argumentationen zu liefern und mit größerer Genauigkeit zu arbeiten. Die Diagrammpanne bleibt jedoch ein Beispiel dafür, wie leicht visuelle Darstellungen missverstanden oder irreführend wirken können – selbst wenn die zugrundeliegenden Daten korrekt sind. Für die Öffentlichkeit und die Fachwelt ist es ein Reminder: Auch bei der Vorstellung von künstlicher Intelligenz bleibt die menschliche Fehleranfälligkeit präsent. Die Kritik an OpenAI bleibt gemildert, da die Fehler schnell erkannt und korrigiert wurden. Experten betonen, dass solche Pannen zwar peinlich sind, aber nicht unbedingt die technische Leistung des Modells in Frage stellen. OpenAI bleibt einer der führenden Akteure im KI-Sektor, und die Fähigkeit, Fehler zu erkennen und zu beheben, wird als Teil der Entwicklungsgeschichte gesehen. Die Marke steht weiterhin für Innovation – auch wenn die Präsentationen gelegentlich an der Perfektion scheitern.