302.AI 基准实验室 | Runway Gen-3 Alpha图生视频上线,图片转视频只需要一步?!

7月30日凌晨,Runway官方在社交媒体平台宣布,在6月中旬推出的视频模型Gen-3Alpha正式推出图生视频功能。官方表示,图生视频功能将极大提高了生成视频的艺术控制和一致性。

302.AI 基准实验室 | Runway Gen-3 Alpha图生视频上线,图片转视频只需要一步?!

这一更新允许用户将任何图像用作视频生成的第一帧,可以单独使用,也可以与文本提示一起使用。

简单的说就是,用户上传一张图片可以单独生成一个视频,也可以在上传图片后搭配文字描述,再生成视频。一般来说,搭配文字提示使用会能够更好地达到用户理想中的效果。来看下官方给出的效果视频,不加文字描述的视频效果:

302.AI 基准实验室 | Runway Gen-3 Alpha图生视频上线,图片转视频只需要一步?!

将图像用作视频生成的第一帧,同时与文本提示一起使用的效果:

302.AI 基准实验室 | Runway Gen-3 Alpha图生视频上线,图片转视频只需要一步?!

视频质量真的很不错,怪不得很多网友在试用后直呼“绝”!但想要使用这一工具,只能选择Runway官网付费升级套餐,其中月费套餐最低15美金可获得625积分,使用Gen-3 Alpha 图生工具生成 10 秒的视频需要 100 个积分,而生成 5 秒的视频则需要 50 个积分,算下来625积分只够生成6个10秒的视频,对于许多网友来说,这个价格成本相对是比较高的。

302.AI 基准实验室 | Runway Gen-3 Alpha图生视频上线,图片转视频只需要一步?!

302.AI 基准实验室 | Runway Gen-3 Alpha图生视频上线,图片转视频只需要一步?!

而且Runway并没有提供Gen-3 Alpha图生视频的API,开发者无法直接从官网获得API使用,不过302.AI的API超市在Runway Gen-3 Alpha图生视频上线后不久就更新了Runway Gen-3 Alpha图生视频的API!302.AI的API超市不仅提供了一个丰富的API集市,而且更新速度非常快,API分类非常清晰。比如Runway的API,用户只需进入302.AI,找到【API列表】,在分类中找到【视频生成】,即可看到Runway的API。

302.AI 基准实验室 | Runway Gen-3 Alpha图生视频上线,图片转视频只需要一步?!

点击Runway进入后,可以看到302.AI不仅提供了Gen-3 Alpha图生视频,同时也提供了Gen-3 Alpha文生视频的API,最重要的是,302.AI的API超市提供详细的文档,且可以在线调试,支持按需付费的方式,更好的控制开发成本。同时发者能够快速地为自己的应用程序或服务找到所需的API,并且获取接入方式和文档支持。

302.AI 基准实验室 | Runway Gen-3 Alpha图生视频上线,图片转视频只需要一步?!

另外顺便提一下,小编看到Runway的官方8月1日在社交媒体平台透露,目前正在训练新版本Gen-3 AlphaTurbo,并表示其生成视频的速度比原始 Gen-3 Alpha 快 7 倍,还表示将很快推出 Turbo for Image to Video。小编直言,真的太卷了!!!

302.AI 基准实验室 | Runway Gen-3 Alpha图生视频上线,图片转视频只需要一步?!

无论是最近国内外火爆的“可灵”还是今天文章中所提到的“Runway”,我们都可以看到,AI视频模型从以前简单的视频编辑到现在复杂的场景生成发生的巨大转变。以前谁能想到,一张图片或者加上一段文字,就能制作成一个视频呢?当然,未来我们期待AI视频模型能够为观众带来更加丰富和引人入胜的视觉体验。

参考文章:https://mp.weixin.qq.com/s/UnqxycNomjwg72yiLDOU5A


👉立即注册免费试用302.AI,开启你的AI之旅!👈

为什么选择302.AI?

● 灵活付费:无需月费,按需付费,成本可控
● 丰富功能:从文字、图片到视频,应有尽有,满足多种场景需求
● 开源生态:支持开发者深度定制,打造专属AI应用
● 易用性:界面友好,操作简单,快速上手

302.AI 新品发布 | 图像创意站:GPT-Image-1玩法全解析,轻松生成惊艳作品
All Rights Reserved by 302.AI
喜欢 (0)
302.AI302.AI
上一页 2024 年 8 月 1 日 下午6:34
下一页 2024 年 8 月 5 日 下午6:39

相关推荐

  • 影视级模型Wan 2.6 深度评测:做广告脚本的神器,但别用它拍电影丨302.AI 基准实验室

    12 月 16 日,阿里正式发布了新一代万相 Wan 2.6 系列模型,面向专业影视制作和图像创作场景进行了全面升级。全新的 Wan 2.6 是国内首个支持角色扮演功能的视频模型,同时支持音画同步、多镜头生成及声音驱动等功能。 此次升级版本直接对标 Sora2,其核心功能亮点体现在以下几方面: 其中最值得关注的当属智能多镜头叙事能力。分镜是电影级创作的一个专…

    2025 年 12 月 18 日 基准实验室
    1.2K0
  • Kling Video 2.6:让谷歌“嘴瓢”的中文视频,我不仅说得准,还能演得好!丨302.AI 基准实验室

    继12月1日快手发布首个统一多模态视频模型可灵O1后,仅两天后,又火速上线了Kling Video 2.6——可灵系列首个实现原生音频的模型,能够单次生成包含画面、自然语音、匹配音效及环境氛围的完整视频,大幅简化创作流程。 Kling 2.6的核心突破在于其多模态的深度协同,技术特点十分鲜明: 基于这一技术赋能,Kling 2.6可适配多种应用场景: 在此前…

    2025 年 12 月 10 日 基准实验室
    1.1K0
  • AIGC万字指南(下):从A到Z,打破技术词汇认知壁垒 | 302.AI大白话聊一聊

    话不多说,文接上篇,让我们从字母L继续。 字母L: LLM (Large Language Model,大语言模型) 定义:一个在海量文本数据上进行预训练,规模巨大、参数量通常在十亿级别以上的深度学习模型,能够理解和生成人类语言。 通俗解释:把它想象成一个读完了人类历史上几乎所有书籍、网页和对话的“超级大脑”或“通天晓”。它不仅能和你聊天,更能扮演“世界模拟…

    2025 年 12 月 1 日 深度拆解
    2.0K0
  • AIGC万字指南(上):从A到Z,打破技术词汇认知壁垒 | 302.AI大白话聊一聊

    2025年末,AIGC(AI-Generated Content,人工智能生成内容)早已从前沿概念,演变为深刻改变创意产业的强大生产力。从本质上讲,AIGC是利用机器学习,特别是深度学习模型,通过对海量数据的学习,来自动化地生成全新的文本、图像、音频、视频、3D交互内容乃至代码等各种形式的数字资产。它不仅仅是一种技术工具,更被视为重塑内容生产逻辑、驱动经济社…

    2025 年 11 月 24 日 深度拆解
    2.0K0

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注