资讯丨DeepSeek-VL2发布,实测看图说话、文字识别和图形推理能力如何?

12月13日,DeepSeek 官方发布博文,宣布开源 DeepSeek-VL2 模型。

据了解,在模型架构上,DeepSeek-VL2 视觉部分使用切图策略支持动态分辨率图像,语言部分采用 MoE 架构低成本高性能, MoE是一种混合专家(Mixture-of-Experts)架构,旨在提高模型的性能和效率。

资讯丨DeepSeek-VL2发布,实测看图说话、文字识别和图形推理能力如何?

在官方给出的测评结果中显示,DeepSeek-VL2超越了多种视觉语言模型:

资讯丨DeepSeek-VL2发布,实测看图说话、文字识别和图形推理能力如何?

DeepSeek-VL2 还分别在 OCR、多模态对话、视觉定位三个领域进行了测试。与 InternVL2、DeepSeek-VL、Qwen2-VL等VLM模型相比中,DeepSeek-VL2 通过 MoE 架构在激活参数更少的情况下实现了相似或更好的性能。

资讯丨DeepSeek-VL2发布,实测看图说话、文字识别和图形推理能力如何?

想要了解更多,可以查看模型论文:https://arxiv.org/abs/2412.10302

> 在302.AI上使用

目前,302.AI已经在聊天机器人API超市提供了DeepSeek-VL2模型,满足不同受众用户的需求,且提供按需付费的使用方式,用户无需担心有月费和捆绑套餐,成本更加灵活可控。以下是详细的获取步骤。

【聊天机器人】

用户想要直接使用模型,可以通过302.AI的聊天机器人获得,302.AI的聊天机器人的更新速度与市场同步,提供了多种AI模型,且分类明晰,用户可以快速找到并使用所需的AI模型,无需在不同平台之间切换和搜索,提高了工作效率

1、进入302.ai,登录后在左侧菜单栏点击使用机器人——选择聊天机器人——模型中选择模型DeepSeek-VL2——最后点击确定即可

资讯丨DeepSeek-VL2发布,实测看图说话、文字识别和图形推理能力如何?

【API超市】

企业用户可以直接通过302.AI提供的接口来调用大模型,并根据自身项目需求快速开发AI应用,大大加快开发和部署速度。以下是在API超市中获取DeepSeek-VL2的详细步骤:

1、进入302.ai后——点击使用API——选择API超市——分类中点击语言大模型——然后选择国产模型

资讯丨DeepSeek-VL2发布,实测看图说话、文字识别和图形推理能力如何?

2、下滑可以看到已经提供了模型DeepSeek-VL2的API,可以根据需求选择【查看文档】快速接入API或者选择【在线体验】测试模型的参数。

资讯丨DeepSeek-VL2发布,实测看图说话、文字识别和图形推理能力如何?

> 实测对比

为了更好了解模型,接下来我们会使用302.AI的模型竞技场对比模型的表现,本次对比的三个模型均为价格接近的国产模型,来看下模型的表现如何!

对比模型:deepseek-VL2、Qwen-VL-Max、abab7-preview

使用工具:302.AI的模型竞技场(界面如下)

资讯丨DeepSeek-VL2发布,实测看图说话、文字识别和图形推理能力如何?

实测一:看图说话

提示词:请根据给出的三张图片编写一个大约300字的暖心故事。

资讯丨DeepSeek-VL2发布,实测看图说话、文字识别和图形推理能力如何?

(图片由302.AI生成)

分析:第一轮实测是看图说话,这是DeepSeek官方在宣传文章中展示的实测提醒,我们换了图片后,实测对比看看模型的表现到底如何。这一轮实测主要考察模型是否能正确描述图片中的场景,并合理赋予关系。

Qwen-VL-Max:故事结构比较通顺,但细看人物关系和场景串联并不合理,比如图三的场景中没有女孩的身影,但是却强行和图一中的人物连接在一起。

deepseek-VL2:出现的问题和Qwen模型相似,人物关系和场景串联不合理,此外,deepseek-VL2的描述中还有部分内容偏离了图片,比如可以看到图二的手里没有拿着任何物品,但描述中却写道是手里拿着法棍,还有将人物识别成“妈妈”的角色。

abab7-preview:逻辑通顺,故事人物关系、场景描述都是正确的,并且符合主题,是三个模型中表现最好的

资讯丨DeepSeek-VL2发布,实测看图说话、文字识别和图形推理能力如何?

实测二:文字识别

提示词:请回答:图片中中文和英文分别写了什么?

资讯丨DeepSeek-VL2发布,实测看图说话、文字识别和图形推理能力如何?

(图源网络)

分析:这是一道非常简单的文字识别测试,涵盖了中英文,来看三个模型是否能正确识别。

Qwen-VL-Max:英文识别正确,中文识别错了一个字。中文第二句中应该是“昼夜更替”识别出来是“日夜更替”。

deepseek-VL2:英文识别正确,中文识别错误率达到到70%,识别出来的中文逻辑语序都不通顺。

abab7-preview:英文和中文识别均有错误。在这一轮中表现最差的模型,中文部分不是识别而是直接翻译。

资讯丨DeepSeek-VL2发布,实测看图说话、文字识别和图形推理能力如何?

附上正确参考答案:

资讯丨DeepSeek-VL2发布,实测看图说话、文字识别和图形推理能力如何?

实测三:图形推理

提示词:从所给的四个选项中,选择最合适的一个填入问号处,使之呈现一定的规律性:

资讯丨DeepSeek-VL2发布,实测看图说话、文字识别和图形推理能力如何?

分析:传统的图形推理题目,首先需要找到规律,规律一:前四个图形都是外层都是圆形,规律二:圆形内的图形能一笔连续画出。因此正确答案是选项D。

Qwen-VL-Max:答案正确,但是解析的逻辑不够通顺

deepseek-VL2:最后答案正确,同样解析过程逻辑不够通顺

abab7-preview:分析错误,答案错误。

资讯丨DeepSeek-VL2发布,实测看图说话、文字识别和图形推理能力如何?

> 总结

通过多轮实测,可以初步得出以下结论:

看图说话:在故事编写时,人物关系与场景描述不如其他模型,整体逻辑联系显得略为牵强。

文字识别:DeepSeek-VL2的英文识别完全正确,但是中文识别上存在一定的错误率

图形推理:尽管最终的答案是正确的,但是解析的过程逻辑不足

总体来看,DeepSeek-VL2在三个模型中的优势并不明显,在文字识别、图形推理和看图编故事方面都有待进一步优化。希望DeepSeek团队可以针对这些问题进行进一步的优化和改进,以提升模型在多模态任务中的表现。

All Rights Reserved by 302.AI
Like (0)
302.AI302.AI
Previous 2024 年 12 月 19 日 下午8:34
Next 2024 年 12 月 24 日 下午6:53

相关推荐

  • 302.AI 新品发布 | AI绘图总翻车?绘图提示词专家帮你精准复刻图片,自由修改风格!

    许多人在使用AI绘图时,都会面临一些棘手的问题,比如想复刻某张图,但尝试了不同的关键词后生成效果依然货不对板;再比如想要对现有的图片进行风格调整使其更贴合自己的独特需求,但却难以维持画面元素的一致性。 针对以上痛点,302.AI 上新了一款AI绘图提示词专家工具,这一工具结合了“图片转提示词”和“风格修改”两大功能,用户不仅可以通过上传图片获得精准提示词复刻…

    2025 年 4 月 25 日 AI资讯
    1340
  • 资讯丨马斯克号称地表最强的Grok 3系列模型,在实测中到底能否超越R1和o3-mini?

    2月19日,马斯克旗下的大模型平台 xAI 推出了新的模型——Grok-3。官方宣称,Grok-3 在推理、数学、编码和指令遵循任务中均表现出色,并在一系列基准测试中表现出色。而马斯克更是称一模型为 ⌈ 地表最强 ⌋。 (非推理模式的Grok-3与其它大模型能力对比) 根据了解,grok-3 并非单一模型,而是一个包含多个版本的模型家族。其中包括了变体版本—…

    2025 年 2 月 24 日 AI资讯
    3040
  • 资讯丨通义万相2.1模型实测绝了!汉字竟在视频里“活”了

    继豆包图像模型攻克汉字生成的难题后,国内AI视频生成领域在中文生成方面再次来了新突破! 今年年初,阿里云推出了全新升级的的视频生成模型——通义万相2.1。据了解,这是⌈ 首个具备中文文字生成能力的视频生成模型 ⌋ 。 通义万相2.1视频模型一经推出,便以 84.70% 总分登顶权威评测榜单VBench榜首。除了中文文字生成的创新,该模型在复杂运动、大幅度动作…

    2025 年 2 月 21 日 AI资讯
    7680
  • 资讯丨302.AI 代码竞技场:大模型编程能力的“超级擂台”

    一个大模型能力强不强,我们常常会从多个维度去评估,其中编程能力是尤为关键的一项。 对于许多用户而言,想要准确测试大模型的代码能力却常常不知道该从何入手,或者不知道选择哪个平台进行测试。 为了帮助用户解决这一问题,302.AI最新上线了一款工具——代码竞技场,这一工具集结了多种先进模型,为用户提供了一个广阔、便捷、易用的代码测试平台。 工具界面展示: 302.…

    2025 年 2 月 19 日 AI资讯
    2730

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注