国产开源 AI 视频生成模型:跃问(Step-Video-T2V)

国产开源视频生成模型“跃问(Step-Video-T2V)”参数达300亿,支持中英文输入,可生成最长204帧高清视频;自研Video-VAE实现时空高效压缩,结合3D全注意力DiT与流匹配去噪,并通过Video-DPO优化真实感。模型已开源,官网与GitHub免费获取。

发布于2025年2月17日 15:04
作者零重力瓦力
评论0
阅读0

又一款十分出色的国产开源 AI 视频生成模型:跃问(Step-Video-T2V)。该模型拥有 300 亿参数,可生成 最长 204 帧 的高质量视频。为了提升计算效率和画面质量,开发团队特别设计了一种 深度压缩变分自编码器(Video-VAE),能够在 空间上压缩 16 倍,时间上压缩 8 倍,同时仍能保持卓越的视频重建效果。

跃问 支持 中英文输入,通过 双语文本编码器 精准解析用户的文字描述,并采用 3D 全注意力(3D Full Attention) 的 DiT 架构 进行训练,利用 流匹配(Flow Matching) 方法去噪,生成清晰自然的画面。此外,开发团队还引入了 基于视频的直接偏好优化(Video-DPO),通过人类反馈进一步优化视频质量,减少伪影,使画面更加流畅、真实。

目前可以通过跃问的官网免费使用这款优秀的 AI 视频生成模型。

访问地址:https://yuewen.cn/

模型下载地址:https://github.com/stepfun-ai/Step-Video-T2V

相关文章

互动讨论

评论区

围绕《国产开源 AI 视频生成模型:跃问(Step-Video-T2V)》展开交流,未登录用户可浏览评论,登录后可参与讨论。

评论数
0
登录后参与评论
支持发表观点与回复一级评论,互动后将同步到消息中心。
登录后评论
暂无评论,欢迎成为第一个参与讨论的人。