HyperAI

Führen Sie Die Cambrian-1-Demo Online Aus

Cambrian-1 ist eine Familie multimodaler LLMs (MLLMs), die mit einem visuellen Ansatz entwickelt wurden. Während leistungsstarke Sprachmodelle multimodale Fähigkeiten verbessern können, sind die Designentscheidungen der visuellen Komponente oft nicht ausreichend erforscht und entsprechen nicht der Forschung zum Lernen visueller Darstellungen.

Cambrian-1 basiert auf fünf Hauptsäulen, von denen jede wichtige Einblicke in den Gestaltungsraum von MLMs bietet:

  • Visuelle Darstellung: Das Forschungsteam untersuchte verschiedene visuelle Encoder und deren Kombinationen.
  • Konnektor-Design: Das Forschungsteam hat einen neuen dynamischen und räumlich bewussten Konnektor entwickelt, der visuelle Funktionen aus mehreren Modellen integriert und gleichzeitig die Anzahl der Token reduziert.
  • Daten zur Unterrichtsoptimierung: Das Forschungsteam kuratiert hochwertige visuelle Daten zur Unterrichtsoptimierung aus öffentlichen Ressourcen und betont die Bedeutung einer ausgewogenen Verteilung.
  • Kochbuch zur Unterrichtsoptimierung: Das Forschungsteam diskutiert Strategien und Praktiken zur Unterrichtsoptimierung.
  • Benchmarks: Das Forschungsteam untersuchte bestehende MLM-Benchmarks und führte einen neuen visionszentrierten Benchmark „CV-Bench“ ein.

Website des Cambrian-1-Projekts:https://cambrian-mllm.github.io/#visual-representation

Modellleistung

Modell# Vis. Tok.MMBSQA-IMathVistaMChartQAMMVP
GPT-4VUNK75.849.978.550.0
Gemini-1.0 ProUNK73.645.2
Gemini-1.5 ProUNK52.181.3
Grok-1.5UNK52.876.1
MM-1-8B14472.372.635.9
MM-1-30B14475.181.039.4
Basis-LLM: LLaMA3-8B-Instruct
Mini-Gemini-HD-8B288072.775.137.059.118.7
LLaVA-NeXT-8B288072.172.836.369.538.7
Kambrium-1-8B57675.980.449.073.351.3
Basis-LLM: Vicuna1.5-13B
Mini-Gemini-HD-13B288068.671.937.056.619.3
LLaVA-NeXT-13B288070.073.535.162.236.0
Kambrium-1-13B57675.779.348.073.841.3
Basis-LLM: Hermes2-Yi-34B
Mini-Gemini-HD-34B288080.677.743.467.637.3
LLaVA-NeXT-34B288079.381.846.568.747.3
Kambrium-1-34B57681.485.653.275.652.7

Bereitstellen des Inferenzschritts

In diesem Tutorial wurden das Modell und die Umgebung bereitgestellt. Sie können das große Modell direkt für den Denkdialog gemäß den Anweisungen im Tutorial verwenden. Das spezifische Tutorial lautet wie folgt:

1. Ersteinrichtung

1. Öffnen Sie den Arbeitsbereich nach der Ressourcenkonfiguration

1

2. Öffnen Sie das Terminal und geben Sie den Befehl ein bash setup.sh

2

3. Nachdem das System die zu .bashrc hinzugefügte Umgebungsvariable ausgegeben hat, geben Sie den Befehl ein source ~/.bashrc


2. Starten Sie den Controller

4. Nach Abschluss der Initialisierung geben Sie den Befehl im Terminal ein bash control.sh

3

3. Öffnen Sie die Schnittstelle

5. Warten Sie etwa 15 Sekunden und öffnen Sie dann einNeues Terminalund geben Sie den Befehl ein bash gradio.sh, klicken Sie auf den auf der Seite generierten Link, um die Modellschnittstelle aufzurufen

6. Beachten Sie, dass wir derzeit in der Modellschnittstelle kein Modell zur Auswahl haben. Dies liegt daran, dass wir das Modell noch nicht konfiguriert haben. An dieser Stelle ist der vierte Schritt erforderlich.


4. Modellkonfiguration

7. Öffnen Sie ein weiteresNeues Terminal Und geben Sie den Befehl ein bash model.sh . Wenn „Uvicorn läuft auf …“ angezeigt wird, kehren Sie zur geöffneten Gradio-Weboberfläche zurück und aktualisieren Sie sie, um zu sehen, dass das Modell bereitgestellt wurde. Anschließend können Sie Bilder und Aufforderungen hochladen, um mit dem Modell zu sprechen.

Darüber hinaus gibt es im Modell mehrere Parameter, die vom Benutzer angepasst werden können.

  • Die Temperatur kann die Kreativität und Zufälligkeit des Ausgabeinhalts beeinflussen.
  • Top p kann die Größe des Kandidatenwortsatzes steuern und so die Qualität und Vielfalt des generierten Textes beeinflussen
  • Mit „Max. Ausgabetoken“ können Sie die maximale Anzahl an Ausgabetoken ändern.