Führen Sie CogVLM2-Llama3-Chinese-Chat-19B Online Aus
Modelleinführung
Im Vergleich zum Open-Source-Modell CogVLM der vorherigen Generation weist das Open-Source-Modell der CogVLM2-Serie die folgenden Verbesserungen auf:
- Deutliche Verbesserungen bei vielen Benchmarks, wie z. B. TextVQA, DocVQA.
- Unterstützt 8K-Inhaltslänge.
- Unterstützt Bildauflösungen bis zu 1344*1344.
- Es wird eine Open-Source-Modellversion bereitgestellt, die Chinesisch und Englisch unterstützt.
Wie man läuft
- Öffnen Sie eine neue Terminalseite
- Geben Sie den Befehl ein
cd CogVLM2/basic_demo
chainlit run web_demo.py --port 8080
Führen Sie das Programm aus
- Kopieren Sie die API-Adresse rechts und öffnen Sie sie in Ihrem Browser
- Klicken Sie unten, um ein Bild hochzuladen und die Textaufforderung einzugeben

- Drücken Sie die Eingabetaste, um die Antwort zu generieren
