会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 格灵深瞳视觉基础模型Glint!

格灵深瞳视觉基础模型Glint

时间:2025-08-25 19:28:41 来源:爱才如命网 作者:休闲 阅读:169次

近日,格灵格灵深瞳灵感实验室和华为伦敦研究所发布最新版视觉基础模型——Glint-MVT v1.5(RICE)。深瞳视觉

格灵深瞳此前有6篇论文亮相国际顶级学术舞台ICCV 2025,基础涵盖视觉基座模型、模型人脸3D重建等领域,格灵其中最新版MVT的深瞳视觉相关论文不仅入选,还被接收为Highlight论文。基础

先看升级后的模型核心要点:

1技术创新性方面:新版MVT提出了一种区域局部感知增强的视觉特征学习方法。

2下游任务表现方面:在OCR和分割等任务上效果优于v1.1版和AIMv2、格灵SigLIP2。深瞳视觉

3此外,基础团队还构建了共4亿图像、模型20亿局部区域、格灵4亿文字区域的深瞳视觉预训练数据集。

概括来说,基础MVT v1.5的最大升级在于:强化了模型对图像细节和文字特征的捕捉和表达能力,在精细任务上表现更优。

以往的视觉-文本对比学习模型,如OpenAI的CLIP模型和谷歌的改进版SigLIP模型等,更侧重全局图像特征(对图像内容的概括性描述),核心的训练逻辑是 “全局对齐”,让模型理解图像的整体语义,并和文本的整体语义相对应。

但这类模型对图像局部区域的细节信息表达较少,难以满足需要精细处理图像的任务,例如OCR和图像分割等。

针对这一问题,新版MVT提出一种区域局部感知增强的视觉特征学习方法。

在技术方案上,格灵深瞳团队利用专家分割模型和OCR模型,对无标注数据进行处理,产生十亿级局部区域,并通过聚类产生伪标签。也就是说,通过分割-OCR-聚类的技术流程,团队将无标注数据转化为带伪标签的大规模训练集,节约了标注成本,提升了自主学习能力。

25a2de24-6957-11f0-a6aa-92fbcf53809c.png

同时,团队设计了区域Transformer层,用来提取局部区域特征和支持数据扩展的区域鉴别损失,使得团队能在亿级数据上进行预训练,突破了在大规模样本上进行高效训练的技术挑战。

基于以上技术攻关,MVT v1.5增强了局部特征和文字特征。相较于传统的全局图像特征模型,新版MVT在检测分割、OCR等对应的下游任务表现上得到提升,有效性得到验证。

25b9774c-6957-11f0-a6aa-92fbcf53809c.png

以文字OCR任务为例,从下图可以看出,MVT v1.5(RICE)的多项分数高于CLIP和SigLIP等模型。

文字OCR任务和全局理解任务:

25c3e510-6957-11f0-a6aa-92fbcf53809c.png

引用分割:

25d64200-6957-11f0-a6aa-92fbcf53809c.png

检测分割任务:

25e81732-6957-11f0-a6aa-92fbcf53809c.png

单目标跟踪任务:

25fcf4ae-6957-11f0-a6aa-92fbcf53809c.png

从技术创新到下游任务,格灵深瞳并非单纯追求学术表现,而是注重技术成果转化应用,通过提升任务表现推动AI在多元场景中真正落地。

MVT v1.5背后的技术团队——格灵深瞳灵感实验室,是国内计算机视觉领域的深耕者。灵感实验室聚焦于视觉及相关模态特征表达与应用,主要研究方向包括:视觉基础大模型、多模态大模型、图文多模态表征、大规模分布式训练等。下一步,团队将锚定视频理解领域,发布最新模型成果。

(责任编辑:娱乐)

相关内容
  • 绝对不缺手柄!Switch 2连接任天堂历代主机手柄有乐趣
  • 经典名作《蜜蜂模拟器》新装版8月登陆Steam 体验蜜蜂生活
  • 技术升维VS帕数内卷:扫地机器人行业开启价值竞争新赛道
  • 流浪汉“阿憨”寻亲 市救助站为其采血作DNA比对
  • 薯香坊薯片,六种口味,原切工艺!小零食,大产业!
  • 高能AI新选择 华硕无畏Pro系列新品官宣正式开售
  • 晒出烦心事 提升获得感 江苏省邳州市消费投诉公示工作走在全省前列
  • 消息称特斯拉计划于6月推出自动驾驶出租车服务,更多细节曝光
推荐内容
  • 废水排放标准三级标准指标是多少(工业废水标准排放指标)
  • 淋浴房企业需创新营销方式 才能激发消费者购买欲
  • 家装过道设计效果图大全
  • 马化腾减持腾讯股票套现 腾讯管理层频频减持时间表
  • 议员国际米兰俱乐部:莫拉蒂的讲话
  • 厦门当季赏花指南:春光无限好 桃李梅樱唱主角