
10月16日晚,百度正式发布并开源自研多模态文档解析模型PaddleOCR-VL。在全球权威文档解析评测榜单OmniBenchDoc V1.5中,PaddleOCR-VL以92.6分取得综合性能全球第一成绩,四大核心能力(文本、表格、公式、阅读顺序)全线SOTA,超越 GPT-4o、Gemini-2.5 Pro、Qwen2.5-VL-72B等主流多模态大模型,以及MonkeyOCR-Pro-3B、MinerU2.5、dots.ocr等OCR专业模型,刷新全球OCR VL模型性能天花板。

据了解,PaddleOCR-VL其核心模型参数仅0.9B,轻量高效,能够在极低计算开销下,精准识别文本、手写汉字、表格、公式、图表等复杂元素,支持109 种语言,覆盖中文、英语、法语、日语、俄语、阿拉伯语、西班牙语等多语场景,广泛适用于政企文档管理、知识检索、档案数字化、科研信息抽取等文档智能任务。
作为文心4.5衍生模型,PaddleOCR-VL-0.9B通过融合NaViT动态分辨率视觉编码器与ERNIE-4.5-0.3B语言模型,在精度与效率上取得双重突破。
精度方面,在OmniDocBench v1.5上,PaddleOCR-VL实现了文本编辑距离仅0.035、公式识别CDM91.43、表格 TEDS93.52、阅读顺序预测误差值0.043的纪录级表现,模型在复杂文档、手写稿、历史档案识别等高难度场景中亦能表现稳定。


推理方面,在单张A100GPU上,PaddleOCR-VL每秒可处理1881个Token,推理速度较 MinerU2.5提升14.2%,较 dots.ocr 提升253.01%。

区别于传统OCR仅能逐行识别文字,PaddleOCR-VL能够像人一样读懂、理解复杂版面结构,精准提取财报表格、数学公式、课堂手写笔记等多元信息,并在识别后自动还原符合人类阅读习惯的阅读顺序,精准区分标题、正文、图片与图注,确保信息无遗漏、逻辑不混乱。

架构上,PaddleOCR-VL 采用创新的两阶段架构:第一阶段由 PP-DocLayoutV2 模型负责版面检测与阅读顺序预测;第二阶段由 PaddleOCR-VL-0.9B 识别并结构化输出文字、表格、公式、图表等元素。相较端到端方案,能够在复杂版面中更稳定、更高效,有效避免多模态模型常见的幻觉与错位问题。
凭借轻量架构与高精度表现,PaddleOCR-VL 在性能、成本和落地性上实现最佳平衡,具备强实用价值。其结构化输出能力还能与 RAG(检索增强生成)系统深度结合,为大模型提供高质量知识输入,成为 AI 知识处理新阶段的重要基础设施。