视频生成模型神仙打架?到底哪家更胜一筹

自从OpenAI发布了正在研发和测试中的文生视频大模型Sora后,AI视频生成工具接连“内卷”,开始”神仙打架“模式。

首先,在当地时间6月12日,Luma创始人官宣并发布新视频模型——Dream Machine。Dream Machine可以在120秒内生成120帧的视频,具备流畅的运动、电影摄影和戏剧效果。6月28日,Luma宣布首尾帧制作加入Dream Machine。

视频生成模型神仙打架?到底哪家更胜一筹

6月27日,Runway推出了新的视频生成基础模型Gen-3 Alpha。该模型可以创建具有复杂场景变化、多种电影风格和详细艺术指导的高精细视频。7月2日凌晨,Runway在官网宣布,其文生视频模型Gen-3 Alpha向所有用户开放使用。

视频生成模型神仙打架?到底哪家更胜一筹

真的可以说是神仙打架啊,既然同样作为视频生成模型,那肯定免不了拿来对比。看下Luma的Dream Machine和RunwayGen-3 Alpha生成的视频对比,均生成自302.AI的AI视频生成器。(prompt:黄昏时分篝火的电影广角镜头。周围是岩石,背景是日落时的森林。)

视频生成模型神仙打架?到底哪家更胜一筹

从以上对比的对比视频来看,可以说不相上下,各有各的优点。接下来再看下来自网络上网友将Gen-3 Alpha、Dream Machine与还未正式开放使用的Sora的对比:

视频生成模型神仙打架?到底哪家更胜一筹

(prompt:一位时尚女性走在东京的街道上,街道上到处都是温暖的霓虹灯和动画城市标识。她穿着黑色皮夹克、红色长裙和黑色靴子,手拿黑色手提包。她戴着太阳镜,涂着红色口红。她自信而随意地走着。街道潮湿而反光,五颜六色的灯光营造出镜面效果。许多行人走来走去。)

如果仅从上面的对比视频来看,三者中小编认为应该是Gen-3 Alpha更胜一筹,当然这并不是最客观的对比。

那Gen-3 Alpha和Dream Machine的价格是怎么样的呢?从Runway和Luma官网中了解到,想要使用Gen-3 Alpha可以选择年包和月包,最低是15美金一个月,只能生成15个视频;而Luma本来还宣称全程免费的但因为太多人登陆使用,限制了每个月只有30次的免费尝试,最关键的是,有可能等了一天都还在排队。如果想要不限制使用,也是有年包和月包选择,最低是30美金一个月。

有人问Gen-3 Alpha和Dream Machine只能选一个的话,会选择哪个呢?这时候小编想起了互联网上的一句话:“小孩子才做选择”,为什么不能都要啊!选择302.AI的AI视频生成器,两个模型一起拿下!(上述Runway与Luma的对比视频正是用这个视频生成器生成的。)

视频生成模型神仙打架?到底哪家更胜一筹

其次,302.AI的AI视频生成器有两种模型可以选择,分别是Luma和Runway,一下满足两种选择,且操作界面简洁易用,就算是小白也能快速上手。接下来看下两种使用方法:

1、文生视频

只需要输入你想要生成的视频内容,点击【生成视频】即可,这种方法不管选择Luma或者Runway模型都适用。

视频生成模型神仙打架?到底哪家更胜一筹

2、图生视频

除了可以通过提示词生成视频外,选择Luma模型还支持图生视频,用户只需要上传两张图片,默认第一张为首帧画面,第二张为尾帧画面,再输入想要生成的视频内容最后点击生成视频即可。

视频生成模型神仙打架?到底哪家更胜一筹

在这场”神仙打架”中,谁更胜一筹,不仅取决于当前的性能指标,更要看谁能持续引领行业发展,满足用户不断变化的需求。在这个快速变化的时代,今天的领先者可能明天就会被超越。据闻Sora将会在今年下半年推出,到时将会更加“内卷”,让我们共同期待,AI视频生成技术将如何开启下一个视觉艺术的新纪元。

Like (0)
302.AI302.AI
Previous 2024 年 7 月 17 日 下午3:36
Next 2024 年 7 月 22 日 下午5:34

相关推荐

  • 资讯丨带你在302.AI玩转Runway新功能Expand Video

    11月底,Runway推出了新功能——Expand Video。这项功能允许用户通过简单的文本提示,在原始视频画面基础上生成额外的视觉内容,并灵活调整视频比例。这和早前很火的“图片扩图”功能非常相似,只不过Expand Video扩的不是静态的图片而是视频。 Expand Video功能的主要特点包括: 1、无缝扩展框架,同时保持视觉一致性,并以…

    2024 年 12 月 16 日
    21100
  • Live-portrait人像转视频模型,让照片中的脸都动起来

    7月6日,可灵网页版正式上线并且宣布了该网页端集成了文生图、文生视频相关能力,同时提供了一些新功能,如更加清晰的高画质版视频、首尾帧控制、镜头控制等全新编辑能力。 而在可灵网页版上线的前两天,快手发布了Live-portrait初始版本的推理代码和模型模型。此外,LivePortrait的官方网站也在同一天上线。 Live-portrait能够将静态照片转化…

    2024 年 7 月 25 日
    45900
  • AI视力考验:各AI模型的视觉理解能力如何?

    近日,行业内有不少新模型涌现出大众的面前,我们会发现,有的模型会在其官方宣传中提到“多模态”一词,比如大家熟知的GPT-4o、Gemini 1.5 Pro等,在发布时都被定义为“原生多模态”,这些多模态LLM在相关的介绍中,都用到了“视觉能力”、“视觉理解”这样的表述。 简单的理解,就是这些模型能够“看得见,并看得懂”,仿佛人的眼睛。为此,很多人…

    2024 年 7 月 25 日
    38200
  • 资讯丨简单几步学会制作超真实的“毒液变身”特效,胆小慎进!

    最近,各社交媒体平台都被一种叫“毒液变身”的特效刷屏了,视频虽然仅有短短几秒钟,却通过生动的画面和动感的特效,给观众带来了强烈的视觉冲击,从而迅速吸引了大量网友的目光。甚至在某些短视频平台上,使用这一特效制作的视频获得了过万的点赞: “毒液变身”特效流行后,许多网友纷纷在线求教程,想要学习如何制作类似的视频。实际上,这些视频效果都是通过最新的视频生成模型——…

    2024 年 12 月 6 日
    22200
  • 告别繁琐配置,来302.AI一键部署GraphRAG

    您是否遇到过这样的问题?大语言模型回答答非所问,或者直接在胡说八道。这种情况一般是因为大语言模型产生了幻觉。在开发和实际应用中,幻觉问题是一个常见且严重的问题,因为幻觉的存在,会导致回答的可信度大大降低。 幻觉出现的原因通常是模型对于某些特定领域或最新信息缺乏了解的情况下,而RAG(Retrieval-Augmented Generation)技术通过结合检…

    2024 年 10 月 23 日
    45300

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注