Still-Moving:将图像以自定义的方式转化成视频

Still-Moving 是一种无需视频数据即可定制文生视频模型的新方法,基于现有文生图模型,通过轻量级“空间适配器”保留图像风格细节,“运动适配器”注入动态特性,训练后移除后者,实现高保真、流畅的个性化视频生成。

发布于2024年9月25日 04:40
作者零重力瓦力
评论0
阅读0

如今,文生图模型在风格化、个性化和可控性方面已经取得了显著进展。然而,将这些进步应用于视频生成时,却面临不少挑战,主要原因在于缺乏专门的视频数据。

为了解决这一问题,一个曾任职于 Google DeepMind 的团队提出了一种名为 Still-Moving 的新方法,该方法允许在不依赖特定视频数据的情况下定制文生视频(T2V)模型。它基于现有的文生图(T2I)模型,构建出适用于视频的模型。

该团队首先使用了一个在静态图像上训练过的定制文生图模型。但由于,直接将其参数应用于视频模型的效果往往不理想,无法满足定制需求。他们开发了一种轻量级的“空间适配器”,用于调整文生图模型生成的特征,并在由定制文生图模型生成的重复图像(类似静止视频)上训练这些适配器。

此外,他们还引入了一个“运动适配器”模块,以便在这些静止视频上进行训练,同时保留视频模型的运动特性。在测试阶段,团队去掉了运动适配器,仅保留训练好的空间适配器。

通过这种方法,他们成功地在保持定制文生视频模型细节的同时,实现了流畅的运动效果。在视频的个性化、风格化以及条件生成等任务中表现出色,成功融合了文生图模型的图像特性与文生视频模型的运动特性。

项目地址

相关文章

互动讨论

评论区

围绕《Still-Moving:将图像以自定义的方式转化成视频》展开交流,未登录用户可浏览评论,登录后可参与讨论。

评论数
0
登录后参与评论
支持发表观点与回复一级评论,互动后将同步到消息中心。
登录后评论
暂无评论,欢迎成为第一个参与讨论的人。