HyperAI

M2RAG-Benchmark-Datensatz Zur Multimodalen Bewertung

Datum

vor 2 Monaten

Größe

5.46 GB

Organisation

Veröffentlichungs-URL

huggingface.co

M2RAG ist ein multimodaler Datensatz zur Bewertung der Fähigkeiten multimodaler Large Language Models (MLLMs) in multimodalen Abrufszenarien. Ziel ist es, die Fähigkeit von MLLMs zu bewerten, multimodales Dokumentwissen bei Aufgaben wie Bildbeschreibung, multimodaler Fragebeantwortung, Faktenüberprüfung und Neubewertung von Bildern zu nutzen. Die relevanten Papierergebnisse sindBenchmarking der Retrieval-Augmented Generation in multimodalen Kontexten".

Dieser Datensatz kombiniert Bild- und Textdaten, um Aufgaben zur Informationsbeschaffung und -generierung in realen Szenarien zu simulieren, beispielsweise bei der Analyse von Nachrichtenereignissen und der visuellen Beantwortung von Fragen. Der Schwerpunkt liegt auf der Bewertung der Fähigkeit von MLLMs, abgerufenes Dokumentwissen in multimodalen Kontexten zu verwenden, einschließlich des Verständnisses von Bildinhalten, der Schlussfolgerung von Bild-Text-Assoziationen und der Beurteilung von Fakten.

Beispiel einer M2RAG-Benchmark-Aufgabe
M2RAG.torrent
Seeding 2Herunterladen 0Abgeschlossen 15Gesamtdownloads 22
  • M2RAG/
    • README.md
      1.45 KB
    • README.txt
      2.9 KB
      • data/
        • M2RAG.zip
          5.46 GB