HyperAI

Multimodaler, Selbstanweisender, Multimodaler Benchmark-Datensatz

Datum

vor 9 Monaten

Größe

3.16 GB

Organisation

Chinesische Akademie der Wissenschaften
Zhejiang-Universität

Veröffentlichungs-URL

github.com

Lizenz

CC BY-SA 4.0

特色图像

Dieser Datensatz wurde 2024 gemeinsam von der Zhejiang-Universität, dem Institut für Software der Chinesischen Akademie der Wissenschaften, der ShanghaiTech University und anderen Institutionen veröffentlicht. Die entsprechenden Ergebnisse des Papiers lauten:Multimodaler Selbstunterricht: Unterricht zu synthetischen abstrakten Bildern und visuellem Denken unter Verwendung eines Sprachmodells".

Der Datensatz enthält insgesamt 11.193 abstrakte Bilder mit relevanten Fragen und deckt 8 Hauptkategorien ab, darunter Dashboards, Roadmaps, Diagramme, Tabellen, Flussdiagramme, Beziehungsdiagramme, visuelle Rätsel und 2D-Grundrisse, sowie weitere 62.476 Daten zur Feinabstimmung des Modells.

Multi-modal-Self-instruct.torrent
Seeding 1Herunterladen 1Abgeschlossen 68Gesamtdownloads 105
  • Multi-modal-Self-instruct/
    • README.md
      1.32 KB
    • README.txt
      2.64 KB
      • data/
        • Multi-modal-Self-instruct.zip
          3.16 GB