Live-portrait人像转视频模型,让照片中的脸都动起来

7月6日,可灵网页版正式上线并且宣布了该网页端集成了文生图、文生视频相关能力,同时提供了一些新功能,如更加清晰的高画质版视频、首尾帧控制、镜头控制等全新编辑能力。

而在可灵网页版上线的前两天,快手发布了Live-portrait初始版本的推理代码和模型模型。此外,LivePortrait的官方网站也在同一天上线。

Live-portrait人像转视频模型,让照片中的脸都动起来

Live-portrait能够将静态照片转化为逼真的动态视频,通过智能算法控制眼睛和嘴唇的动作,生成生动的效果,突破传统动画制作的难题。上传自己的照片,并选择不同的动作和表情,就能生成具有高度真实感和细腻表情变化的动态人像。

简单粗暴的理解就是,表情的“移花接木”,Live-portrait能够让一张面无表情或者只有简单表情的照片动起来,例如在Live-portrait的功能下,各大艺术作品中的人物也被“唤醒”了。

Live-portrait人像转视频模型,让照片中的脸都动起来

(图源302.AI的API超市)

自从Live-portrait技术推出后,就迅速成为了热门话题。连HuggingFace的首席战略官Thomas Wolf也在社交媒体上分享了自己使用Live-portrait功能后的作品。Live-portrait人像转视频模型,让照片中的脸都动起来

Live-Portrait为什么这么火?先来看下它的方法介绍:LivePortrait的模型训练分为两阶段。第一阶段为基础模型训练,第二阶段为贴合和重定向模块训练

在第一阶段模型训练中,LivePortrait对基于隐式点的框架,如Face vid2vid,做了一系列改进,包括:高质量训练数据收集、视频-图像混合训练、升级的网络结构、更灵活的动作变换建模、关键点引导的隐式关键点优化、级联损失函数。第一阶段的所有模块为从头训练,总的训练优化函数 (Lbase) 为以上损失项的加权和。

Live-portrait人像转视频模型,让照片中的脸都动起来

而第二阶段,贴合和重定向模块训练,考虑到实际需求,LivePortrait设计了一个贴合模块、眼部重定向模块和嘴部重定向模块。当参考人像被裁切时,驱动后的人像会从裁图空间被反贴回原始图像空间,贴合模块的加入是为了避免反贴过程中出现像素错位,比如肩膀区域。

Live-portrait人像转视频模型,让照片中的脸都动起来

眼部重定向模块旨在解决跨身份驱动时眼睛闭合不完全的问题,尤其是当眼睛小的人像驱动眼睛大的人像时。嘴部重定向模块的设计思想类似于眼部重定向模块,它通过将参考图片的嘴部驱动为闭合状态来规范输入,从而更好地进行驱动。

接下来,为了更好理解,一起来看下Live-Portrait的实际效果展示。除了文章上面提到的单一的图像生成,对于多人合照,也可以实现“表情转移”:

Live-portrait人像转视频模型,让照片中的脸都动起来

如果仅把目光局限在人物上,那就错了!因为除了能将人物的静态照片转化为动态视频,动物也可以:

Live-portrait人像转视频模型,让照片中的脸都动起来

除了人像照片,给定一段人像视频,比如舞蹈视频,Live-Portrait也可以用驱动视频对头部区域进行动作编辑,看下效果:

Live-portrait人像转视频模型,让照片中的脸都动起来

虽然Live-Portrait是一款开源模型,但是如果用户想要使用,需要在下载好模型后,设置开发环境、安装必要的软件,还需要如足够的内存和高性能的GPU等一系列繁琐的步骤。然而,302.AI提供了一个更为便捷的解决方案,首先进入302.AI官网后找到API超市,在API分类选择【视频生成】,点击302.AI;

Live-portrait人像转视频模型,让照片中的脸都动起来

只需要找到302.AI的API超市提供的Live-Portrait的API,可以省去大量配置和安装的步骤,支持在线调试,快速接入Live-Portrait模型。重要的是,302.AI提供按需付费的方式,且无捆绑套餐。

Live-portrait人像转视频模型,让照片中的脸都动起来

让我们一起看看通过302.AI的API超市实现的Live-Portrait技术成果:

Live-portrait人像转视频模型,让照片中的脸都动起来

原图(来源于302.AI的API超市)

Live-portrait人像转视频模型,让照片中的脸都动起来

效果图(来源于302.AI的API超市)

302.AI的API超市分类明晰,会实时更新市面上AI模型的API,不需要自己找模型,不需要配置环境,不需要部署,即使是小白用户也能轻松打开并立即使用。

Live-portrait人像转视频模型,让照片中的脸都动起来

参考文章:https://mp.weixin.qq.com/s/b_7N4KaY8El4JeD1lorodQ

在探索Live-portrait技术,将静态人像转换为动态视频的旅途中,我们见证了技术的巨大潜力,正如我们已经看到的那些通过Live-portrait动起来的艺术画像,每一个成功的转换都让人感受到时间的力量和科技的魅力。未来,随着技术的进步和应用的深入,我们期待看到更多曾经静默的面孔走入我们的世界,以全新的方式诉说他们的故事。

(0)
302.AI302.AI
上一篇 2024 年 7 月 25 日 下午3:47
下一篇 2024 年 7 月 26 日 下午3:39

相关推荐

  • 模型竞技场:中秋国庆调休来了,哪个AI能算明白?

    不知不觉中,2024年的时光已悄然流逝了三分之二。 许多打工人和学生党即将迎来中秋和国庆两个假期。放假是件开心的事情,然而,有网友发现,今年的中秋国庆假期放假和调休时间安排颇为复杂,这一话题因此登上了社交平台热搜榜,引发了广泛关注,阅读量激增至4亿,讨论量也高达11.3万。 对于接下来从九月第二周开始到十月“上6休3上3休2上5休1上2休7再上5休1”的放假…

    2024 年 8 月 29 日
    10800
  • Midjourney新版本v6.1上线,人像逼真细节再升级

    7月的最后一天,Midjourney宣布推出最新版本v6.1,这一消息在创意和技术领域引起了广泛关注。那这一新版本对比前一版本对比有什么不同呢,下面一起来看看。 Midjourney v6.1做了一系列升级: 1、更好的生成一致性(人像的手臂、腿、身体,动植物等题材) 2、更高的图像质量(减少伪影、增强纹理等) 3、更准确、更多细节、更精确理解图像里边的细小…

    2024 年 8 月 5 日
    10600
  • GPT-4o新版本突然上线,结构化输出是什么?

    8月6日,OpenAI的官网悄悄上线了新版本gpt-4o-2024-08-06模型。去年的DevDay活动中,OpenAI推出了JSON模式,而这次升级的新版本在API中引入了结构化输出,这一新功能旨在确保模型生成的输出与开发人员提供的 JSON 架构完全匹配。 gpt-4o-2024-08-06采用结构化输出的新模型在复杂 JSON 模式跟踪的评估中获得了…

    2024 年 8 月 8 日
    12300
  • 阿里千问发布数学模型Qwen2-Math,最好的数学模型出现了?!

    8月9日,阿里通义团队发布新一代数学模型Qwen2-Math,据官方称,Qwen2-Math 是一系列基于 Qwen2 LLM 构建的专门用于数学解题的语言模型,其数学能力显著超越了开源模型,甚至超过了闭源模型(如 GPT-4o),Qwen2-Math包含1.5B、7B、72B三个参数的基础模型和指令微调模型。 在一系列数学基准评测上,Qwen2-Math-…

    2024 年 8 月 19 日
    11200
  • 提升AI协作效率,国内用户如何使用Artifacts功能?

    最近,由于汉语新解prompt的爆火,让Claude模型再次受到广泛关注。 提到Claude,或许大多数用户都会联想到Claude Artifacts,Anthropic在官网宣布推出Claude 3.5 Sonnet的同时,也宣布将在 Claude.ai上推出Artifacts功能,这一功能在用户请求Claude生成代码、文档或网站设计时,能够将这些生成的…

    2024 年 9 月 19 日
    6600

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注