视频生成模型神仙打架?到底哪家更胜一筹

自从OpenAI发布了正在研发和测试中的文生视频大模型Sora后,AI视频生成工具接连“内卷”,开始”神仙打架“模式。

首先,在当地时间6月12日,Luma创始人官宣并发布新视频模型——Dream Machine。Dream Machine可以在120秒内生成120帧的视频,具备流畅的运动、电影摄影和戏剧效果。6月28日,Luma宣布首尾帧制作加入Dream Machine。

视频生成模型神仙打架?到底哪家更胜一筹

6月27日,Runway推出了新的视频生成基础模型Gen-3 Alpha。该模型可以创建具有复杂场景变化、多种电影风格和详细艺术指导的高精细视频。7月2日凌晨,Runway在官网宣布,其文生视频模型Gen-3 Alpha向所有用户开放使用。

视频生成模型神仙打架?到底哪家更胜一筹

真的可以说是神仙打架啊,既然同样作为视频生成模型,那肯定免不了拿来对比。看下Luma的Dream Machine和RunwayGen-3 Alpha生成的视频对比,均生成自302.AI的AI视频生成器。(prompt:黄昏时分篝火的电影广角镜头。周围是岩石,背景是日落时的森林。)

视频生成模型神仙打架?到底哪家更胜一筹

从以上对比的对比视频来看,可以说不相上下,各有各的优点。接下来再看下来自网络上网友将Gen-3 Alpha、Dream Machine与还未正式开放使用的Sora的对比:

视频生成模型神仙打架?到底哪家更胜一筹

(prompt:一位时尚女性走在东京的街道上,街道上到处都是温暖的霓虹灯和动画城市标识。她穿着黑色皮夹克、红色长裙和黑色靴子,手拿黑色手提包。她戴着太阳镜,涂着红色口红。她自信而随意地走着。街道潮湿而反光,五颜六色的灯光营造出镜面效果。许多行人走来走去。)

如果仅从上面的对比视频来看,三者中小编认为应该是Gen-3 Alpha更胜一筹,当然这并不是最客观的对比。

那Gen-3 Alpha和Dream Machine的价格是怎么样的呢?从Runway和Luma官网中了解到,想要使用Gen-3 Alpha可以选择年包和月包,最低是15美金一个月,只能生成15个视频;而Luma本来还宣称全程免费的但因为太多人登陆使用,限制了每个月只有30次的免费尝试,最关键的是,有可能等了一天都还在排队。如果想要不限制使用,也是有年包和月包选择,最低是30美金一个月。

有人问Gen-3 Alpha和Dream Machine只能选一个的话,会选择哪个呢?这时候小编想起了互联网上的一句话:“小孩子才做选择”,为什么不能都要啊!选择302.AI的AI视频生成器,两个模型一起拿下!(上述Runway与Luma的对比视频正是用这个视频生成器生成的。)

视频生成模型神仙打架?到底哪家更胜一筹

其次,302.AI的AI视频生成器有两种模型可以选择,分别是Luma和Runway,一下满足两种选择,且操作界面简洁易用,就算是小白也能快速上手。接下来看下两种使用方法:

1、文生视频

只需要输入你想要生成的视频内容,点击【生成视频】即可,这种方法不管选择Luma或者Runway模型都适用。

视频生成模型神仙打架?到底哪家更胜一筹

2、图生视频

除了可以通过提示词生成视频外,选择Luma模型还支持图生视频,用户只需要上传两张图片,默认第一张为首帧画面,第二张为尾帧画面,再输入想要生成的视频内容最后点击生成视频即可。

视频生成模型神仙打架?到底哪家更胜一筹

在这场”神仙打架”中,谁更胜一筹,不仅取决于当前的性能指标,更要看谁能持续引领行业发展,满足用户不断变化的需求。在这个快速变化的时代,今天的领先者可能明天就会被超越。据闻Sora将会在今年下半年推出,到时将会更加“内卷”,让我们共同期待,AI视频生成技术将如何开启下一个视觉艺术的新纪元。

(0)
302.AI302.AI
上一篇 2024 年 7 月 17 日 下午3:36
下一篇 2024 年 7 月 22 日 下午5:34

相关推荐

  • Runway Gen-3 Alpha图生视频上线,图片转视频只需要一步?!

    7月30日凌晨,Runway官方在社交媒体平台宣布,在6月中旬推出的视频模型Gen-3Alpha正式推出图生视频功能。官方表示,图生视频功能将极大提高了生成视频的艺术控制和一致性。 这一更新允许用户将任何图像用作视频生成的第一帧,可以单独使用,也可以与文本提示一起使用。 简单的说就是,用户上传一张图片可以单独生成一个视频,也可以在上传图片后搭配文字描述,再生…

    2024 年 8 月 2 日
    8200
  • DeepL推出新一代翻译编辑模型,翻译能力究竟如何?

    7 月 17 日,德国翻译技术公司DeepL宣布推出新一代大型语言模型(也称“LLM”),并宣称质量优于 ChatGPT-4、谷歌和微软。该模型基于专有的大规模语言模型技术和定制的训练数据集,旨在提供更精准的翻译服务。 DeepL官方宣称,通过盲测表明,语言专家通常更青睐 DeepL 的译文,结果显示,DeepL 的译文的首选度是谷歌翻译的 1.3 倍, C…

    2024 年 7 月 29 日
    10800
  • 当提示词使用”过去时”,就能突破各AI模型的安全防线?

    近日,洛桑联邦理工学院的研究人员发现,当使用AI模型的时候,只要在提示词中把时间设定成过去,就能突破大模型的安全防线。原本只有1%的攻击成功率飙升至88%,几乎达到了“有求必应”的境界。这项发现不仅在英文环境下有效,在中文语境中同样适用,让网友们惊叹于破解大模型漏洞的简便性。 实验中,研究人员从JBB-Behaviors数据集中挑选了100个有害行为,通过将…

    2024 年 8 月 1 日
    7800
  • 模型竞技场:中秋国庆调休来了,哪个AI能算明白?

    不知不觉中,2024年的时光已悄然流逝了三分之二。 许多打工人和学生党即将迎来中秋和国庆两个假期。放假是件开心的事情,然而,有网友发现,今年的中秋国庆假期放假和调休时间安排颇为复杂,这一话题因此登上了社交平台热搜榜,引发了广泛关注,阅读量激增至4亿,讨论量也高达11.3万。 对于接下来从九月第二周开始到十月“上6休3上3休2上5休1上2休7再上5休1”的放假…

    2024 年 8 月 29 日
    7600
  • AI视力考验:各AI模型的视觉理解能力如何?

    近日,行业内有不少新模型涌现出大众的面前,我们会发现,有的模型会在其官方宣传中提到“多模态”一词,比如大家熟知的GPT-4o、Gemini 1.5 Pro等,在发布时都被定义为“原生多模态”,这些多模态LLM在相关的介绍中,都用到了“视觉能力”、“视觉理解”这样的表述。 简单的理解,就是这些模型能够“看得见,并看得懂”,仿佛人的眼睛。为此,很多人…

    2024 年 7 月 25 日
    6900

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注