全自研芯片计算!百度智能云Qianfan-VL系列模型重磅开源
17173 新闻导语
百度智能云Qianfan-VL系列视觉理解模型全面开源,支持OCR、数学推理、文档理解等场景,3B/8B/70B多尺寸可选,免费体验SOTA性能!
今日,百度智能云千帆正式推出全新视觉理解模型——Qianfan-VL,并全面开源。
即日起至10月10日,用户可在百度智能云千帆平台免费体验8B、70B模型。
据介绍,Qianfan-VL系列模型包含3B、8B和70B三个尺寸版本,是面向企业级多模态应用场景,进行了深度优化的视觉理解大模型。
Qianfan-VL不仅具备出色的基础通用能力,还针对产业落地中的高频需求,如OCR和教育垂直场景做了专项强化。
据悉,该系列模型基于开源模型进行开发,并在百度自研昆仑芯 P800上完成全流程计算任务,其提供了强大的算力支撑,同时支持单任务5000卡规模的并行计算。
这一结合不仅优化了模型计算的效率,更使得模型在性能表现上达到了新的高度,在通用和垂类任务评测中展现出SOTA水平。
Qianfan-VL模型具备三大特点:
多尺寸模型满足不同场景需求:提供3B、8B、70B三种规格的模型,让不同规模的企业和开发者都能找到合适的解决方案。
提供思考推理能力:8B和70B模型支持通过特殊token激活思维链能力,覆盖复杂图表理解、视觉推理、数学解题等多种场景。
OCR与文档理解能力增强:主打OCR全场景识别和复杂版面文档理解两大特色能力,在多项基准测试中表现优异,为企业级应用提供高精度的视觉理解解决方案。
在通用能力基准测试中,Qianfan-VL系列模型(3B、8B、70B)展现出显著核心优势。
从视觉理解到专业领域问答,模型性能随参数规模增大提升显著,体现出很好的Scaling趋势。
此外,Qianfan-VL系列模型(3B、8B、70B)在OCR与文档理解领域尽显卓越实力。
一方面,具备OCR全场景识别能力,能精准识别手写体、数学公式、自然场景文字,还可对卡证票据信息进行结构化提取。
另一方面,复杂版面文档理解能力突出,可自动分析版面元素,精准解析表格、图表,实现文档智能问答与结构化解析。
从基准测试表现看,在OCRBench、各类专业测试中,相较于主流模型,成绩优异且随参数规模提升持续向好。
而8B和70B模型,支持通过特殊token激活思维链能力,能覆盖复杂图表理解、视觉推理、数学解题等多类场景。
从数学解题基准测试表现看,在MathVista-mini、MathVision等多项测试中,相较于主流模型,成绩优异且随参数规模提升持续向好。
值得注意的是,官方还演示了一些模型应用的案例。
如OCR识别场景:
如数学推理场景:
如文档理解场景:
除上述场景应用案例外,Qianfan-VL还可应用在图表分析、视频理解等场景中,均呈现出卓越的模型效果。
Qianfan-VL系列模型的开源,对百度智能云千帆来说,更像是“把模型放进真实生产力场景”的第一小步;未来,百度智能云会不断推出全新的产业级模型,全方位助力AI技术在各行业落地。
关于Qianfan-VL,视觉理解模型,多模态,OCR,文档理解,思维链,数学推理,百度智能云,开源模型,企业级应用的新闻
- (2025-12-05) 爆款率过半、算力成本仅20%,通义万相模型“跑通了”AI漫剧
- (2025-12-03) 国内首款AI助盲眼镜发布:基于通义千问打造 支持出行避障、找物读物
- (2025-12-03) DeepSeek的一次小更新:暴打OpenAI 追上Gemini
- (2025-12-02) 全球首个统一多模态视频大模型!可灵AI O1正式上线:一句话生成视频
- (2025-11-28) V4还没来 DeepSeekMath-V2数学模型来了:IMO奥赛金牌水平











