小红书开源最新多模态大模型dots.vlm1:性能跃升顶尖梯队
据媒体媒体报道,小红书人文智能实验室(Humane Intelligence Lab,简称 HI Lab)凭借其独特的多模态技术崭露头角。
近日,该实验室宣布开源其最新的视觉语言模型dots.vlm1,此举不仅彰显了其技术自研的坚定决心,也为多模态AI领域注入了新活力。
作为HI Lab首个开源的多模态大模型,dots.vlm1基于全自研的12亿参数NaViT视觉编码器和 DeepSeek V3 大语言模型构建而成。它在视觉理解与推理任务上展现出接近业界领先水平的能力,同时在纯文本任务中也保持了相当的竞争力。dots.vlm1的出现,突破了当前AI模型多聚焦于文本处理的局限,为多模态AI的发展开辟了新路径。
在实际测试中,dots.vlm1的表现令人印象深刻。该模型能够精准识别空间关系、解析复杂图表、解答数独问题,甚至能理解和完成高考数学题。其图像识别能力同样强大,无论是常见物体还是冷门图片,都能准确识别并给出详尽解释。例如,在面对经典的红绿色盲数字测试图时,dots.vlm1一次性全部答对,在颜色和形状识别上都表现出极高的准确性。
除了卓越的视觉与推理能力,dots.vlm1在文本生成方面也表现突出。它能够模仿李白诗风,创作出描述刘慈欣《诗云》中“诗云”意象的诗歌,作品意境深远、用词精准,充分展现了其文本创作实力。
dots.vlm1的成功,源于HI Lab对技术自研的持续投入。该实验室由小红书内部大模型技术与应用产品团队合并升级而来,专注于探索多元智能形态。通过融合人际智能、空间智能、音乐智能及人文关怀等维度,HI Lab不断拓展人机交互的边界,为AI技术发展注入新动能。
在dots.vlm1的开发中,HI Lab采用了严谨的三阶段训练流程:首先对NaViT视觉编码器进行预训练,最大化其对多样视觉数据的感知能力;随后将视觉编码器与DeepSeek V3大语言模型联合训练,利用大规模、多样化多模态数据集;最后通过有监督微调进一步提升模型的泛化能力。这一流程确保了dots.vlm1在视觉与文本领域均能出色发挥。
值得关注的是,dots.vlm1的开源不仅为AI研究者提供了宝贵资源,更积极推动了多模态AI技术的进步。在当前竞争激烈的AI领域,小红书HI Lab此举为行业树立了新标杆。随着dots.vlm1的持续完善和应用场景的不断拓展,其有望在更多领域释放巨大潜力。
- 1美艳吸血鬼来了!网石最新MMORPG《血之继承者》今日已开启预先下载!
- 22月全球手游收入榜出炉!《Last War》击败《王者荣耀》登顶
- 3梦幻西游:梦幻175在家五开,什么是最强阵容?选这个准没错效率直接拉满!
- 4新增男格斗!《地下城与勇士:起源》公开更新计划
- 5挑战可爱盗墓少女!《洛奇英雄传》3月17日开启全新战役
- 6游戏联动还能这么玩?让玩家在51区用火影跑解救外星人?
- 7魔兽世界:当玩家用脚来丈量12.0资料片,乐趣增加了10倍
- 8宝可梦公司高薪招募“现实版大木博士” 年薪最高千万日元
- 9离谱!17岁黑客只用电视棒黑入《GTA6》入狱还能玩手机
- 10《三角洲》毁号牵扯出三年前旧案 受害人合作平台深夜道歉


