智谱发布的新一代基座模型GLM-4-Plus和GLM-4V-Plus表现如何?

8月29日,智谱AI在KDD国际数据挖掘与知识发现大会上发布了新一代基座模型,包括语言模型GLM-4-Plus、图像/视频理解模型GLM-4V-Plus等。

GLM-4-Plus 基座模型,通过多种方式构造出了海量高质量数据,并利用 PPO等多项技术,有效提升了模型推理、指令遵循等方面的表现,能够更好地反映人类偏好。据官方称,GLM-4-Plus在各项指标上,做到与 GPT-4o 等第一梯队模型持平。另外,还采用更精准的长短文本数据混合策略,增强了模型在长文本推理方面的表现。

智谱发布的新一代基座模型GLM-4-Plus和GLM-4V-Plus表现如何?

此外,基于CogVLM系列模型上的研究经验,智谱研发了同时具备高质量图像理解和视频理解能力的多模态模型 GLM-4V-Plus,GLM-4V-Plus 除了能理解并分析复杂的视频内容外,同时还具备超强的时间感知能力。

智谱发布的新一代基座模型GLM-4-Plus和GLM-4V-Plus表现如何?

据官方消息称,GLM-4-Plus即将在清言APP上线体验,但是这个【即将】的具体时间还不明确,而且有些用户会认为,为了体验一个模型而花费时间搜索下载一个应用程序,不仅耗费时间还占用手机空间。为此,小编提供一个更为便捷的方式,无需下载任何应用程序,用户可以直接进入302.AI的官网找到302.AI的聊天机器人使用GLM-4-Plus,目前,302.AI的聊天机器人不仅更新了GLM-4-Plus模式,还同步上线了GLM-4V-Plus模型,用户无需下载任何APP,也不必掌握API的使用方法,即可轻松体验。

智谱发布的新一代基座模型GLM-4-Plus和GLM-4V-Plus表现如何?

302.AI提供按需付费的服务方式,聊天机器人还可以在高级设置里开启机器人显示消耗,让用户能够实时掌握聊天机器人的使用情况,从而更精确控制费用支出,更灵活控制预算。

接下来,小编就带大家抢先试用下GLM-4-Plus模型:

用经典农夫过河问题测试一下GLM-4-Plus的推理能力,从以下的结果来看,GLM-4-Plus不仅回答正确,甚至还给出了代码模拟这一过程从而检查结果是否正确,小编表示,仿佛看到了读书时代学霸同学做题的情景:

智谱发布的新一代基座模型GLM-4-Plus和GLM-4V-Plus表现如何?

再来测试一下GLM-4-Plus语言理解能力,如下图提出杯子和瓶子的相关问题,看下模型能否准确理解人类语言的含义和上下文,根据结果可以看到,GLM-4-Plus的回答是正确,没有被绕晕,可以说在语言理解方面表现也是不错的。

智谱发布的新一代基座模型GLM-4-Plus和GLM-4V-Plus表现如何?

接下来再简单测试一下GLM-4v-Plus的图片理解能力,上传一张网络搞笑图片让模型分析下笑点。

从回答结果来看,小编觉得这个解释有点过于简略,好像解释了但又好像没有解释(就比如我问为什么要吃饭,你回答因为到吃饭时间了):

智谱发布的新一代基座模型GLM-4-Plus和GLM-4V-Plus表现如何?

而同样的问题,提问GPT-4o,得到的回答先是介绍了整个图片中所有的元素,连包装上的文字都能清楚解释,还有形状结构都有提到,最后介绍完所有有关物品后再回答好笑的地方。

智谱发布的新一代基座模型GLM-4-Plus和GLM-4V-Plus表现如何?

总的来说,通过以上简单的测试,GLM-4-Plus模型在推理能力、语言理解方面的能力都有明显的提升,而GLM-4v-Plus在图片理解方面还有比较大的上升空间。

除此之外,302.AI的API超市的【国产模型】分类区也已经上线了GLM-4-Plus和GLM-4V-Plus的API,同样是按需付费,且支持在线调试,不仅提高了开发效率,还能够降低开发成本。

众所周知,智谱AI是一家成立于2019年的人工智能公司,由清华大学计算机系技术成果转化而来,目前已经成为国内AI大模型领域的领军企业之一。智谱AI发布的GLM-4-Plus和GLM-4V-Plus模型,无论是从技术创新还是应用实践,都展现出了不错的能力,而GLM-4V-Plus更是国内首个通用图像&视频理解模型,未来,希望智谱将继续发挥其在人工智能领域的优势,为用户带来更多惊喜和价值。

参考文章:https://mp.weixin.qq.com/s/f0Wl2qJEqMOxZP3vxdQdJg

Like (0)
302.AI302.AI
Previous 2024 年 8 月 29 日 下午5:47
Next 2024 年 9 月 3 日 下午7:08

相关推荐

  • Genmo推出全球最大开源视频生成模型Mochi V1,实测效果到底行不行?

    10月22日,Genmo在社交媒体平台发布消息,推出最新的开源视频生成模型 Mochi V1。Mochi V1采用创新的 Asymmetric Diffusion Transformer(AsymmDiT)架构,拥有高达100亿个参数,是迄今为止公开发布的最大视频生成模型。 根据Genmo官方介绍,Mochi V1模型在提示词遵循和动作质量方面表现十分出色:…

    2024 年 10 月 28 日
    21600
  • AI网页生成器,提升网页开发效率的新利器

    早前,一个“资深程序员已经用ai开始干活了”的热搜话题引发了广大网友的关注,截至目前这一话题阅读量已经破亿。 在这一话题下,引发了网友关于AI技术与编程工作关系的深入讨论,甚至有网友发出疑问”AI发展在未来是否会取代人类的工作岗位”。实际上,不仅仅是程序员,无论是在职场还是日常生活中,AI工具更多地是作为一个强大的辅助手段,帮助我们快速实现想法、…

    2024 年 10 月 9 日
    35000
  • 资讯丨谷歌再发布实验模型Gemini 2.0 Flash Thinking,实测中能否正确解出考研数学题?!

    12月20日凌晨,谷歌DeepMind首席科学家宣布推出全新模型——Gemini 2.0 Flash Thinking。 据了解,Gemini 2.0 Flash thinking是一个实验性模型,它以Gemini 2.0 Flash版本为基础,经过特别训练后,能够在回答问题时展示其“思考过程”,这与o1模型的慢思维思考方式相似,可以深度可视化展示整个思维链…

    2024 年 12 月 24 日
    18400
  • Ideogram推出2.0版本,连Midjourney都感受到了压力?看看到底有多厉害?!

    8月21日,由Ideogram团队倾力打造的创新型文本生成图像模型 Ideogram 2.0正式发布。 其实早在今年2月,Ideogram团队就发布了Ideogram模型1.0版本,但是其在AI生图领域并未引起太大波澜,但在这一次 Ideogram 2.0版本发布后,Ideogram官方直接在社交媒体平台自信宣称,这一版本比FLUX Pro和DALL·E3要…

    2024 年 8 月 26 日
    34100
  • 资讯丨Meta AI新模型Llama 3.3 70B推理、编程全面评测,真实表现如何?

    12月6日,Meta AI推出了新开源模型Llama 3.3 70B。Meta AI副总裁Ahmad Al-Dahle在社交媒体平台发布的一篇帖子中表示,这款仅支持文本的Llama 3.3 70B模型与Meta最大型模型Llama 3.1 405B的性能相当,但运行起来更简单、更经济高效。 据了解,Llama 3.3 70B上下文长度为128K,是一款自回归…

    2024 年 12 月 10 日
    9700

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注