Runway Act-One 面部表情捕捉工具介绍

Runway推出Act-One面部表情捕捉工具,基于Gen-3 Alpha模型,仅需普通相机拍摄的单人表演视频,即可高保真还原视线、微表情与情感节奏,并驱动多角色动画生成。无需动捕设备或复杂绑定,支持跨角色复用表演、声音变换及多轮对话场景创作,现已面向资深用户开放。

发布于2024年10月28日 03:29
作者零重力瓦力
评论0
阅读0

Runway 发布了Act-One,这是一个在 Gen-3 Alpha 中生成具有丰富表现力角色的新的工具。

仅通过一段简单的演员表演就能生成角色动画

视线方向、微表情、节奏和表现力都在最终生成的结果中得到了忠实还原。

捕捉表演的精髓

传统的面部动作捕捉通常涉及复杂的多步骤的工作流程。这些流程可能包括动作捕捉设备、多段视频参考、手动面部绑定等技术。目标是将演员的表演转化为适合动画流程的 3D 模型。传统方法的关键挑战在于如何将参考视频中的情感和细微之处保留到数字角色中。

而 Runway 的方法使用完全不同的流程,直接由演员的表演驱动,并且不需要额外的设备。

使用单个摄像机的简单设置来捕捉演员表演,生成角色的动画。

动画动作捕捉

Act-One 可以应用于各种参考图像。该模型保留了逼真的面部表情,并准确地将其表演转化为与原始视频不同的角色。这种多样性为独特的角色设计和动画打开了新的可能性。

通过家用摄像机的简单设置捕捉演员的表演,生成各种角色动画,并附带声音变换效果。

现场表演

该模型在生成电影级和逼真的输出方面表现出色,并且在各种摄像机角度下保持高保真的面部动画。这种能力使创作者能够制作出逼真的角色,传达真实的情感和表情,从而增强观众与内容之间的联系。

新的创作途径

Runway 一直在探索 Act-One 如何能够生成多轮、富有表现力的对话场景,这在以前使用生成式视频模型时的难点。现在,用户只需使用一台普通相机和一名演员就能表演多个不同的角色,从而完成复杂的影片叙事。

安全

与 Runway 发布的其他产品一样,这款工具有着完善的内容审核以及安全预防措施,包括:

  • 用于阻止生成包含公众人物内容的检测
  • 通过技术措施验证用户是否有权使用他们通过自定义声音创建的声音
  • 通过持续监控检测和缓解其他潜在的不当使用工具和平台的行为

Act-One 目前已向部分资深用户开放,并很快向所有用户开放。

相关文章

互动讨论

评论区

围绕《Runway Act-One 面部表情捕捉工具介绍》展开交流,未登录用户可浏览评论,登录后可参与讨论。

评论数
0
登录后参与评论
支持发表观点与回复一级评论,互动后将同步到消息中心。
登录后评论
暂无评论,欢迎成为第一个参与讨论的人。