HyperAIHyperAI

Command Palette

Search for a command to run...

Ensemble De Données De Compréhension Scientifique Multimodal ArXiv

Discuter sur Discord

Date

il y a un an

Organisation

Université de Pékin
L'Université de Hong Kong

URL de publication

mm-arxiv.github.io

URL du document

arxiv.org

Multimodal ArXiv a été lancé par l'Université de Hong Kong et l'Université de Pékin en 2024. Le document pertinent est «ArXiv multimodal : un ensemble de données pour améliorer la compréhension scientifique des grands modèles vision-langage", qui a été accepté par l'ACL 2024.

Cet ensemble de données se compose d'ArXivCap et d'ArXivQA pour améliorer la compréhension scientifique du LVLM.

ArXivCap est un ensemble de données de légendes de graphiques contenant 6,4 millions d'images et 3,9 millions de légendes provenant de 572 000 articles ArXiv couvrant divers domaines scientifiques.

S'appuyant sur ArXivCap, l'équipe de recherche a présenté ArXivQA, un ensemble de données de questions-réponses généré par GPT-4V basé sur des graphiques scientifiques via des invites. ArXivQA améliore considérablement les capacités de raisonnement mathématique du LVLM open source, obtenant une amélioration de la précision absolue de 10,4% sur un benchmark de raisonnement mathématique multimodal.

Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp