Llama Nemotron VLM v1 マルチモーダル画像およびテキストデータセット
Llama Nemotron VLM v1は、NVIDIAが2025年にVLM後学習用にリリースした高品質の画像およびテキストデータセットです。NVIDIAがリリースしたLlama-3.1-Nemotron-Nano-VL-8B-V1文書理解モデル(文書質問応答、グラフ質問応答、AI2Dなどのシナリオをサポート)をサポートするために使用されます。
このデータセットは21のサブセットから構成され、合計2,863,854個のサンプルが含まれています。視覚的質問応答(VQA)、キャプション(画像記述)、光学式文字認識(OCR)の3つのカテゴリを網羅し、再アノテーションされた公開画像データセット、完全合成および半合成OCRデータ(中国語と英語、文字、単語、ページレベル)、内部アノテーション付きOCRセットが含まれています。また、このデータセットは、元の質問応答(VQA)またはキャプションを改良・強化しており、インテリジェントエージェント、チャットアシスタント、RAGなどのアプリケーションのマルチモーダルトレーニングおよび評価に適しています。
データには以下が含まれます:
- VQA(ビジュアル質問応答):1,917,755件の例
- 字幕: 131,718 サンプル
- OCR(テキスト認識): 814,381 サンプル