HyperAI
Back to Headlines

ChatGPT-Entwicklung: Offenlegung der API-Interns und Modell-Komplexität bei OpenAI

vor 8 Tagen

Mit der Einführung der OpenAI API für tiefgreifende Forschung hat OpenAI den Vorhang vor den internen Abläufen von ChatGPT gelüftet. Die Dokumentation zur tiefgreifenden Forschungs-API zeigt, dass eine Vielzahl von Aktivitäten hinter der API stattfinden. Dies wirft erneut ein Warnlicht auf Unternehmensimplementierungen, die APIs als schwarze Kisten betrachten, deren Funktionsweise unbekannt ist. Zahlreiche Studien haben gezeigt, wie Modelle hinter kommerziellen APIs sich ändern und verzerren, wodurch Nutzer in der Hand der Modellanbieter sind. Die Veröffentlichung von OpenAI enthält auch eine Sequenz für eine tiefgreifende Forschungsanfrage mit ChatGPT, welche Einblicke in die Hintergründe gewährt. Das Ziel der ChatGPT-Benutzeroberfläche ist es, alle Komplexitäten abzuschirmen und eine einfache Benutzeroberfläche zu präsentieren. Interessanterweise werden jedoch tatsächlich drei Modellaufrufe durchgeführt: zwei leichte Modelle und dann das tiefgreifende Forschungsmodell. ChatGPT verwendet ein Hilfsmodell (wie z.B. GPT-4.1) zur Klärung der Absicht des Nutzers und zum Sammeln von Details wie Vorlieben oder Zielen, bevor die Forschung beginnt. Dieser Schritt personalisiert Web-Suchanfragen, um relevantere Ergebnisse zu erzielen. Diese Phase wird in der API weggelassen, sodass Entwickler selbst entscheiden können, wie weit sie den Workflow anpassen möchten. Ein weiteres leichtes Modell, das als Prompt-Umschreiber fungiert, erweitert oder spezifiziert Nutzanfragen, bevor sie an das Forschungsmodell übergeben werden. Dies verdeutlicht, wie viel hinter der Bühne passiert. Die interne Funktionsweise von ChatGPT zeigt, wie komplex diese Prozesse sind und illustriert ein wichtiges Prinzip: Komplexität muss irgendwo existieren, entweder sie wird dem Nutzer präsentiert, der sie deuten und verstehen muss, oder sie bleibt unter der Haube und hinter der Benutzeroberfläche verborgen. Die Verarbeitung der Komplexität wird dann den Entwicklern überlassen, die die Benutzererfahrung im Namen des Nutzers orchestrieren müssen. Betrachten Sie, dass hier drei Sprachmodelle beteiligt sind. Ein erstes Modell zur Aufklärung und Klärung, ein zweites, um den Prompt für das Forschungsmodell zu optimieren, und ein drittes, das tiefgreifende Forschungen durchführt. Dieser Ansatz zeigt, dass ein einzelnes Modell in den meisten Fällen nicht die Lösung ist und dass mehrere kleinere, weniger leistungsfähige Modelle oft effektiver sein können. Wie das folgende Bild zeigt, hat NVIDIA einen Ansatz vorgestellt, bei dem ein Sprachmodell trainiert wird, um präzise zu identifizieren, welches Werkzeug für welchen Schritt oder Teil eines Schritts verwendet werden sollte. Die Erkenntnisse aus dieser Offenlegung der internen Prozesse von ChatGPT sind für die technische Community von großer Bedeutung. Sie betonen, dass die Verwendung von APIs nicht ohne Risiken ist und dass Entwickler sorgfältig darauf achten sollten, wie sie diese in ihre Anwendungen integrieren. Gleichzeitig bietet sie aber auch neue Möglichkeiten, indem sie zeigt, wie durch die Verteilung der Komplexität auf mehrere kleinere Modelle bessere und präzisere Ergebnisse erzielt werden können. OpenAI ist ein führendes Unternehmen im Bereich künstlicher Intelligenz, bekannt für seine fortschrittlichen Sprachmodelle wie GPT-3 und GPT-4. Die Veröffentlichung dieser internen Details unterstreicht OpenAIs Commitment zur Transparenz und zur Weiterentwicklung seiner Technologien. Dies könnte dazu beitragen, das Vertrauen von Nutzern und Entwicklern in die Plattform zu stärken.

Related Links