找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 216|回复: 0

dots.vlm1 – 小红书hi lab开源的首个多模态大模型

[复制链接]

19

主题

0

回帖

101

积分

管理员

积分
101
发表于 2025-8-8 14:05:38 | 显示全部楼层 |阅读模式
dots.vlm1是什么
dots.vlm1 是小红书 hi lab 开源的首个多模态大模型。基于一个从零训练的 12 亿参数视觉编码器 NaViT 和 DeepSeek V3 大语言模型(LLM),具备强大的视觉感知和文本推理能力。模型在视觉理解和推理任务上表现出色,接近闭源 SOTA 模型水平,在文本任务上也保持了竞争力。dots.vlm1 的视觉编码器 NaViT 完全从零开始训练,原生支持动态分辨率,在文本监督基础上增加了纯视觉监督,提升了感知能力。训练数据引入了多种合成数据思路,覆盖多样的图片类型及其描述,显著提升了数据质量。
[/url]
dots.vlm1的主要功能
  • 强大的视觉理解能力:能准确识别和理解图像中的内容,包括复杂图表、表格、文档、图形等,支持动态分辨率,适用于多种视觉任务。
  • 高效的文本生成与推理:基于 DeepSeek V3 LLM,能生成高质量的文本描述,在数学、代码等文本推理任务中表现出色。
  • 多模态数据处理:支持图文交错的数据处理,能结合视觉和文本信息进行综合推理,适用于多模态应用场景。
  • 灵活的适配与扩展:通过轻量级 MLP 适配器连接视觉编码器和语言模型,方便在不同任务中进行灵活适配和扩展。
  • 开源与开放性:提供完整的开源代码和模型,支持开发者进行研究和应用开发,推动多模态技术的发展。
dots.vlm1的技术原理
  • NaViT 视觉编码器:dots.vlm1 使用了一个从零开始训练的 12 亿参数视觉编码器 NaViT,非基于现有成熟模型微调。原生支持动态分辨率,能处理不同分辨率的图像输入,在文本监督的基础上增加了纯视觉监督,提升了模型对图像的感知能力。
  • 多模态数据训练:模型采用了多样化的多模态训练数据,包括普通图像、复杂图表、表格、文档、图形等,以及对应的文本描述(如 Alt Text、Dense Caption、Grounding 等)。引入了合成数据思路和网页、PDF 等图文交错数据,通过重写和清洗提升数据质量,增强模型的多模态理解能力。
  • 视觉与语言模型融合:dots.vlm1 将视觉编码器与 DeepSeek V3 大语言模型(LLM)相结合,通过轻量级 MLP 适配器进行连接,实现视觉信息与语言信息的有效融合,支持多模态任务的处理。
  • 三阶段训练流程:模型的训练分为三个阶段:视觉编码器预训练、VLM 预训练和 VLM 后训练。通过逐步提升图像分辨率和引入多样化的训练数据,增强模型的泛化能力和多模态任务处理能力。
dots.vlm1的项目地址
dots.vlm1的应用场景
  • 复杂图表推理:能对复杂的图表进行分析和推理,帮助用户更好地理解和解读图表中的信息。
  • STEM 解题:在科学、技术、工程和数学(STEM)领域,模型可以辅助解决相关问题,提供解题思路。
  • 长尾识别:对于一些出现频率较低的类别或对象,dots.vlm1 也具备较好的识别能力。
  • 视觉推理:能处理涉及视觉信息的推理任务,如障碍物识别、商品比较分析等。
  • 图文问答与互动:支持图文结合的问答任务,能进行多轮对话,根据上下文给出连贯的回答。
  • 内容推荐:基于多模态数据,为用户提供个性化的内容推荐,如在小红书平台上推荐相关的图文或视频。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|运营笔记

GMT+8, 2025-10-7 04:57 , Processed in 0.034863 second(s), 19 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表