HyperAIHyperAI

Command Palette

Search for a command to run...

Ensemble De Données De Compréhension Scientifique Multimodal ArXiv

Discuss on Discord

Date

il y a un an

Organization

Université de Pékin
L'Université de Hong Kong

Paper URL

arxiv.org

Multimodal ArXiv a été lancé par l'Université de Hong Kong et l'Université de Pékin en 2024. Le document pertinent est «ArXiv multimodal : un ensemble de données pour améliorer la compréhension scientifique des grands modèles vision-langage", qui a été accepté par l'ACL 2024.

Cet ensemble de données se compose d'ArXivCap et d'ArXivQA pour améliorer la compréhension scientifique du LVLM.

ArXivCap est un ensemble de données de légendes de graphiques contenant 6,4 millions d'images et 3,9 millions de légendes provenant de 572 000 articles ArXiv couvrant divers domaines scientifiques.

S'appuyant sur ArXivCap, l'équipe de recherche a présenté ArXivQA, un ensemble de données de questions-réponses généré par GPT-4V basé sur des graphiques scientifiques via des invites. ArXivQA améliore considérablement les capacités de raisonnement mathématique du LVLM open source, obtenant une amélioration de la précision absolue de 10,4% sur un benchmark de raisonnement mathématique multimodal.

Build AI with AI

From idea to launch — accelerate your AI development with free AI co-coding, out-of-the-box environment and best price of GPUs.

AI Co-coding
Ready-to-use GPUs
Best Pricing

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp