HyperAIHyperAI

Command Palette

Search for a command to run...

Ensemble De Données De Compréhension Scientifique Multimodal ArXiv

Date

il y a un an

Organisation

L'Université de Hong Kong

URL de publication

mm-arxiv.github.io

URL de l'article

arxiv.org

Rejoignez la communauté Discord

Multimodal ArXiv a été lancé par l'Université de Hong Kong et l'Université de Pékin en 2024. Le document pertinent est «ArXiv multimodal : un ensemble de données pour améliorer la compréhension scientifique des grands modèles vision-langage", qui a été accepté par l'ACL 2024.

Cet ensemble de données se compose d'ArXivCap et d'ArXivQA pour améliorer la compréhension scientifique du LVLM.

ArXivCap est un ensemble de données de légendes de graphiques contenant 6,4 millions d'images et 3,9 millions de légendes provenant de 572 000 articles ArXiv couvrant divers domaines scientifiques.

S'appuyant sur ArXivCap, l'équipe de recherche a présenté ArXivQA, un ensemble de données de questions-réponses généré par GPT-4V basé sur des graphiques scientifiques via des invites. ArXivQA améliore considérablement les capacités de raisonnement mathématique du LVLM open source, obtenant une amélioration de la précision absolue de 10,4% sur un benchmark de raisonnement mathématique multimodal.

Construire l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec du co-codage IA gratuit, un environnement prêt à l'emploi et les meilleurs prix GPU.

Co-codage IA
GPU prêts à utiliser
Meilleurs prix
Commencer

Hyper Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Ensemble De Données De Compréhension Scientifique Multimodal ArXiv | Ensembles de données | HyperAI