HyperAIHyperAI

Command Palette

Search for a command to run...

Ensemble De Données De Référence Multimodales d'auto-apprentissage Multimodal

Date

il y a un an

Taille

3.16 GB

Organisation

Académie chinoise des sciences
Université du Zhejiang

URL de publication

github.com

URL de l'article

www.arxiv.org

Licence

CC BY-SA 4.0

Featured Image

Cet ensemble de données a été lancé conjointement par l'Université du Zhejiang, l'Institut des logiciels de l'Académie chinoise des sciences, l'Université ShanghaiTech et d'autres institutions en 2024. Les résultats pertinents de l'article sont "Auto-apprentissage multimodal : enseignement par images synthétiques abstraites et raisonnement visuel à l'aide d'un modèle de langage".

L'ensemble de données contient un total de 11 193 images abstraites avec des questions pertinentes, couvrant 8 catégories principales, notamment des tableaux de bord, des feuilles de route, des graphiques, des tableaux, des organigrammes, des diagrammes de relations, des énigmes visuelles et des plans d'étage 2D, en plus de 62 476 données supplémentaires pour affiner le modèle.

Multi-modal-Self-instruct.torrent
Partage 2Téléchargement 0Terminés 125Téléchargements totaux 205
  • Multi-modal-Self-instruct/
    • README.md
      1.32 KB
    • README.txt
      2.64 KB
      • data/
        • Multi-modal-Self-instruct.zip
          3.16 GB

Construire l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec du co-codage IA gratuit, un environnement prêt à l'emploi et les meilleurs prix GPU.

Co-codage IA
GPU prêts à utiliser
Meilleurs prix
Commencer

Hyper Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp