Command Palette
Search for a command to run...
DeepSeek-V3.2: Der Fortschritt bei offenen großen Sprachmodellen
DeepSeek-V3.2: Der Fortschritt bei offenen großen Sprachmodellen
Abstract
Wir stellen DeepSeek-V3.2 vor, ein Modell, das hohe rechnerische Effizienz mit herausragender Reasoning- und Agentenleistung vereint. Die zentralen technischen Durchbrüche von DeepSeek-V3.2 sind wie folgt: (1) DeepSeek Sparse Attention (DSA): Wir führen DSA ein, eine effiziente Aufmerksamkeitsmechanik, die die rechnerische Komplexität erheblich reduziert, ohne die Modellleistung in Szenarien mit langen Kontexten zu beeinträchtigen. (2) Skalierbares Reinforcement-Learning-Framework: Durch die Implementierung eines robusten Reinforcement-Learning-Protokolls und die Skalierung der nachtrainierten Rechenressourcen erreicht DeepSeek-V3.2 eine Leistung, die mit der von GPT-5 vergleichbar ist. Besonders hervorzuheben ist unsere High-Compute-Variante, DeepSeek-V3.2-Speciale, die GPT-5 übertreffen und eine Reasoning-Leistung auf dem Niveau von Gemini-3.0-Pro aufweist. Sie erzielte eine Goldmedaille sowohl bei der Internationalen Mathematik-Olympiade (IMO) 2025 als auch bei der Internationalen Olympiade in Informatik (IOI). (3) Skalierbare Pipeline zur Synthese agenter Aufgaben: Um Reasoning in Werkzeugnutzungsszenarien zu integrieren, haben wir eine neuartige Synthesepipeline entwickelt, die systematisch Trainingsdaten in großem Umfang generiert. Diese Methode ermöglicht eine skalierbare agente Nachtraining, was erhebliche Verbesserungen in der Generalisierungsfähigkeit und Robustheit beim Befolgen von Anweisungen in komplexen, interaktiven Umgebungen ermöglicht.