dots.ocr:多语言文档解析模型
一、教程简介
dots.ocr 是由小红书 hi lab 于 2025 年 8 月发布的多语言文档布局解析模型。模型基于 17 亿参数的视觉语言模型(VLM),能统一进行布局检测和内容识别,保持良好的阅读顺序。模型规模虽小,但性能达到业界领先水平(SOTA),在 OmniDocBench 等基准测试中表现优异,公式识别效果能与 Doubao-1.5 和 gemini2.5-pro 等更大规模模型相媲美,在小语种解析方面优势显著。 dots.ocr 提供简洁高效的架构,任务切换仅需更改输入提示词,推理速度快,适用多种文档解析场景。
本教程采用资源为单卡 RTX 4090 。
二、项目示例
公式文档示例

表格文档示例

多语言文档示例



三、运行步骤
1. 启动容器后点击 API 地址即可进入 Web 界面

2. 使用步骤
若显示「Bad Gateway」,这表示模型正在初始化,由于模型较大,请等待约 2-3 分钟后刷新页面。

参数说明
- Select Prompt:
- layout_all_en:识别图像中所有文本,并保留原始布局结构。
- layout_only_en:只识别图像中的英文文本,忽略其他语言。
- ocr:识别图像中的文本,不需要保留结构。
- Advanced Settings:
- Enable fitz_preprocess for images:是否为图像启用 fitz_preprocess 预处理。如果图像 DPI 较低,建议使用。
- Min Pixels:图像的最小像素数,用于过滤掉过小的图像。
- Max Pixels:图像的最大像素数,用于过滤掉过大的图像。
四、交流探讨
🖌️ 如果大家看到优质项目,欢迎后台留言推荐!另外,我们还建立了教程交流群,欢迎小伙伴们扫码备注【SD 教程】入群探讨各类技术问题、分享应用效果↓
