HyperAIHyperAI

M2RAG-Benchmark-Datensatz Zur Multimodalen Bewertung

Datum

vor 5 Monaten

Größe

5.46 GB

Organisation

Veröffentlichungs-URL

huggingface.co

Paper-URL

arxiv.org

M2RAG ist ein multimodaler Datensatz zur Bewertung der Fähigkeiten multimodaler Large Language Models (MLLMs) in multimodalen Abrufszenarien. Ziel ist es, die Fähigkeit von MLLMs zu bewerten, multimodales Dokumentwissen bei Aufgaben wie Bildbeschreibung, multimodaler Fragebeantwortung, Faktenüberprüfung und Neubewertung von Bildern zu nutzen. Die relevanten Papierergebnisse sindBenchmarking der Retrieval-Augmented Generation in multimodalen Kontexten".

Dieser Datensatz kombiniert Bild- und Textdaten, um Aufgaben zur Informationsbeschaffung und -generierung in realen Szenarien zu simulieren, beispielsweise bei der Analyse von Nachrichtenereignissen und der visuellen Beantwortung von Fragen. Der Schwerpunkt liegt auf der Bewertung der Fähigkeit von MLLMs, abgerufenes Dokumentwissen in multimodalen Kontexten zu verwenden, einschließlich des Verständnisses von Bildinhalten, der Schlussfolgerung von Bild-Text-Assoziationen und der Beurteilung von Fakten.

Beispiel einer M2RAG-Benchmark-Aufgabe
M2RAG.torrent
Seeding 1Herunterladen 0Abgeschlossen 72Gesamtdownloads 105
  • M2RAG/
    • README.md
      1.45 KB
    • README.txt
      2.9 KB
      • data/
        • M2RAG.zip
          5.46 GB