vLLM+Open WebUI-Bereitstellung QwenLong-L1-32B
1. Einführung in das Tutorial

QwenLong-L1-32B ist ein Langtext-Argumentationsmodell, das am 26. Mai 2025 von Tongyi Lab und der Alibaba Group veröffentlicht wurde. Dieses Modell ist das erste Langtext-Argumentationsmodell, das auf Reinforcement Learning (RL)-Training basiert. Es konzentriert sich auf die Lösung der Probleme von Gedächtnisschwäche und logischer Verwirrung, die bei herkömmlichen großen Modellen bei der Verarbeitung extrem langer Kontexte (z. B. 120.000 Token) auftreten. Es durchbricht die kontextuellen Einschränkungen herkömmlicher großer Modelle und bietet kostengünstige, leistungsstarke Lösungen für hochpräzise Szenarien wie Finanzen und Recht. Die relevanten Ergebnisse der Studie lauten:QwenLong-L1: Auf dem Weg zu Long-Context Large Reasoning-Modellen mit Reinforcement Learning".
Dieses Tutorial verwendet Dual-Card-RTX-A6000-Ressourcen.
2. Projektbeispiele

3. Bedienungsschritte
1. Klicken Sie nach dem Starten des Containers auf die API-Adresse, um die Weboberfläche aufzurufen
Wenn „Modell“ nicht angezeigt wird, bedeutet dies, dass das Modell initialisiert wird. Da das Modell groß ist, warten Sie bitte etwa 2–3 Minuten und aktualisieren Sie die Seite.

2. Nachdem Sie die Webseite aufgerufen haben, können Sie ein Gespräch mit dem Modell beginnen
Anwendung

4. Diskussion
🖌️ Wenn Sie ein hochwertiges Projekt sehen, hinterlassen Sie bitte im Hintergrund eine Nachricht, um es weiterzuempfehlen! Darüber hinaus haben wir auch eine Tutorien-Austauschgruppe ins Leben gerufen. Willkommen, Freunde, scannen Sie den QR-Code und kommentieren Sie [SD-Tutorial], um der Gruppe beizutreten, verschiedene technische Probleme zu besprechen und Anwendungsergebnisse auszutauschen ↓

Zitationsinformationen
Dank an den Github-Benutzer xxxjjjyyy1 Bereitstellung dieses Tutorials. Die Zitationsinformationen für dieses Projekt lauten wie folgt:
@article{wan2025qwenlongl1,
title={QwenLong-L1: : Towards Long-Context Large Reasoning Models with Reinforcement Learning},
author={Fanqi Wan, Weizhou Shen, Shengyi Liao, Yingcheng Shi, Chenliang Li, Ziyi Yang, Ji Zhang, Fei Huang, Jingren Zhou, Ming Yan},
journal={arXiv preprint arXiv:2505.17667},
year={2025}
}