字节跳动可控人像动画生成模型:DreamActor-M1

字节跳动发布DreamActor-M1人像动画模型,基于Diffusion Transformer架构,首创“混合引导”机制,融合姿态与外观信息,支持高保真、多尺度、长时间一致的动画生成;具备精准肢体/表情控制、语音驱动口型同步及跨体型适配能力,适用于虚拟人与数字内容创作。

发布于2025年4月4日 02:49
作者零重力瓦力
评论0
阅读0

字节跳动推出了一款名为 DreamActor-M1 的人物动画生成模型,专注于生成高保真、表现力丰富且时序一致的人像动画。与以往只关注局部动作或单一尺度的方法不同,DreamActor-M1 引入了“混合引导”机制,从多维度解决了控制精度、多尺度适应性和长时间一致性等难题。

DreamActor-M1 的核心亮点 在于其基于 Diffusion Transformer(DiT) 的架构设计,并结合了融合姿态和外观信息的“混合引导”机制。在动作控制上,系统整合了隐式面部表示、3D头部模型和3D骨架数据,不仅能精准呈现肢体动作,还能细腻表达面部情绪。这种设计不仅提升了动画的真实感,还确保了人物身份的一致性。

另一个值得关注的设计是其对多尺度动画的支持。无论是肖像还是全身动画,DreamActor-M1 通过渐进式训练策略,在不同分辨率和视角下学习,保证了动画在各种构图和场景中的连贯性和稳定性。这种能力大大增强了模型的通用性,为现实应用提供了更多可能性。

在保持外观和时序一致性方面,DreamActor-M1 提出了创新的解决方案。它通过融合时序帧的运动模式和补充视觉参考,有效减少了复杂动作中可能出现的失真问题,比如人像转动、遮挡或快速运动时的画面不连贯。这一技术进步标志着“生成一致性”从局部帧间优化迈向了全局时序维度。

除了技术突破,DreamActor-M1 还展现了极高的灵活性和可控性。它支持独立调整局部动作(如表情、头部运动),通过骨骼长度调整适配不同体型,甚至可以实现语音驱动的口型同步,覆盖多语言表达。这些功能表明,DreamActor-M1 不仅适用于学术研究,还具备直接应用于虚拟人、数字内容创作和沉浸式交互等产业场景的潜力。

项目地址:https://grisoon.github.io/DreamActor-M1/

相关文章

互动讨论

评论区

围绕《字节跳动可控人像动画生成模型:DreamActor-M1》展开交流,未登录用户可浏览评论,登录后可参与讨论。

评论数
0
登录后参与评论
支持发表观点与回复一级评论,互动后将同步到消息中心。
登录后评论
暂无评论,欢迎成为第一个参与讨论的人。