字节跳动推出新一代人像 AI 视频生成模型:OmniHuman-1

字节跳动推出OmniHuman-1人像视频生成模型,仅需单张人像图+音频/视频/混合信号即可驱动生成高保真动态视频。突破弱音频信号下生成瓶颈,支持任意比例输入与身体部位精准控制,适配唱歌、讲话、竖屏等多场景。

发布于2025年2月5日 08:40
作者零重力瓦力
评论0
阅读0

字节跳动推出了一款极为出色的多模态 AI 人像视频生成模型,能够基于单张人物图像和运动信号(如音频、视频,以及两者结合)生成人物视频。通过引入多模态运动条件混合训练策略,这款模型克服了高质量数据稀缺的问题,在弱信号输入(特别是音频)下依然能够生成高度逼真的人类视频。它支持任意纵横比的输入图像,包括人像、半身和全身,展现出细腻的运动、光照和纹理细节。OmniHuman 在唱歌、讲话等场景中表现十分出色,支持多种姿势、风格以及复杂动作,适配卡通、人工物体及动物等多样化输入。同时,它兼容音频驱动、视频驱动以及两者的结合,通过混合条件训练实现对特定身体部位的精准控制!

通用视频

对话视频

唱歌视频

半身视频

竖屏视频

多样化视频

项目地址:https://omnihuman-lab.github.io

相关文章

互动讨论

评论区

围绕《字节跳动推出新一代人像 AI 视频生成模型:OmniHuman-1》展开交流,未登录用户可浏览评论,登录后可参与讨论。

评论数
0
登录后参与评论
支持发表观点与回复一级评论,互动后将同步到消息中心。
登录后评论
暂无评论,欢迎成为第一个参与讨论的人。