HyperAIHyperAI

Command Palette

Search for a command to run...

Multimodaler, Selbstanweisender, Multimodaler Benchmark-Datensatz

Datum

vor 2 Jahren

Größe

3.16 GB

Organisation

Chinesische Akademie der Wissenschaften
Zhejiang-Universität

Veröffentlichungs-URL

github.com

Paper-URL

www.arxiv.org

Lizenz

CC BY-SA 4.0

Featured Image

Dieser Datensatz wurde 2024 gemeinsam von der Zhejiang-Universität, dem Institut für Software der Chinesischen Akademie der Wissenschaften, der ShanghaiTech University und anderen Institutionen veröffentlicht. Die entsprechenden Ergebnisse des Papiers lauten:Multimodaler Selbstunterricht: Unterricht zu synthetischen abstrakten Bildern und visuellem Denken unter Verwendung eines Sprachmodells".

Der Datensatz enthält insgesamt 11.193 abstrakte Bilder mit relevanten Fragen und deckt 8 Hauptkategorien ab, darunter Dashboards, Roadmaps, Diagramme, Tabellen, Flussdiagramme, Beziehungsdiagramme, visuelle Rätsel und 2D-Grundrisse, sowie weitere 62.476 Daten zur Feinabstimmung des Modells.

Multi-modal-Self-instruct.torrent
Seeding 1Wird heruntergeladen 0Abgeschlossen 140Gesamtdownloads 246
  • Multi-modal-Self-instruct/
    • README.md
      1.32 KB
    • README.txt
      2.64 KB
      • data/
        • Multi-modal-Self-instruct.zip
          3.16 GB

KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Multimodaler, Selbstanweisender, Multimodaler Benchmark-Datensatz | Datensätze | HyperAI