HyperAIHyperAI

Command Palette

Search for a command to run...

Multimodaler, Selbstanweisender, Multimodaler Benchmark-Datensatz

Datum

vor einem Jahr

Größe

3.16 GB

Organisation

Chinesische Akademie der Wissenschaften
Zhejiang-Universität

Veröffentlichungs-URL

github.com

Paper-URL

www.arxiv.org

Lizenz

CC BY-SA 4.0

Featured Image

Dieser Datensatz wurde 2024 gemeinsam von der Zhejiang-Universität, dem Institut für Software der Chinesischen Akademie der Wissenschaften, der ShanghaiTech University und anderen Institutionen veröffentlicht. Die entsprechenden Ergebnisse des Papiers lauten:Multimodaler Selbstunterricht: Unterricht zu synthetischen abstrakten Bildern und visuellem Denken unter Verwendung eines Sprachmodells".

Der Datensatz enthält insgesamt 11.193 abstrakte Bilder mit relevanten Fragen und deckt 8 Hauptkategorien ab, darunter Dashboards, Roadmaps, Diagramme, Tabellen, Flussdiagramme, Beziehungsdiagramme, visuelle Rätsel und 2D-Grundrisse, sowie weitere 62.476 Daten zur Feinabstimmung des Modells.

Multi-modal-Self-instruct.torrent
Seeding 2Herunterladen 0Abgeschlossen 125Gesamtdownloads 205
  • Multi-modal-Self-instruct/
    • README.md
      1.32 KB
    • README.txt
      2.64 KB
      • data/
        • Multi-modal-Self-instruct.zip
          3.16 GB

KI mit KI entwickeln

Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.

KI-Co-Coding
Sofort einsatzbereit GPUs
Beste Preise
Jetzt starten

Hyper Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Multimodaler, Selbstanweisender, Multimodaler Benchmark-Datensatz | Datensätze | HyperAI