
目前,大多数视频生成模型一次生成的视频长度通常仅为 5 到 10 秒。SkyReels-V2 则致力于打破这一局限,实现真正的无限长度视频生成。近年来,得益于扩散模型和自回归框架的不断进步,视频生成领域取得了显著发展,但依然面临着诸多难题。例如,在追求画面视觉质量的同时,运动流畅性往往被牺牲。视频长度受到分辨率和带宽的限制。现有的大模型在理解和表达镜头语言方面也存在不足,生成的内容难以呈现出专业电影所需的叙事和美学。SkyReels-V2 正是在这样的背景下应运而生,旨在突破上述瓶颈,为生成式视频技术带来新的可能。
视频演示
模型介绍
该模型的核心创新在于引入了 Diffusion Forcing 扩散强制机制,这是目前首个可支持无限时长连续生成的方案。与传统扩散模型一刀切的噪声调度不同,Diffusion Forcing 允许每一个 Token 拥有独立的噪声等级,模型可以灵活地在序列中部分掩码、部分恢复,实现任意长度视频的无缝续写。理论上,这相当于为生成模型提供了 “随时接续” 的能力,极大拓展了电影级视频的生成长度与连续性。
在数据处理和训练策略上,SkyReels-V2 利用了多模态大模型的集成思路。团队构建了完善的视频标注体系,其中 SkyCaptioner-V1 担任视频描述生成器,基于 Qwen2.5-VL-7B-Instruct 进行定制化微调,并在两百万规模的视频数据集上平衡标注。该模型在镜头类型、角度、主体位置、表情等多个维度的标注准确率上,超越了目前的主流开源模型,为后续生成模型的训练提供了高质量的语义基础。
在生成质量优化环节,SkyReels-V2 引入了强化学习机制。针对长视频中大幅度、可变形运动的生成难题,团队采用了半自动化的偏好标注流程,将自动生成的运动对与人工评估结合,训练了专门的奖励模型以优化运动表现。这种方法有效提升了模型对物理规律和运动连贯性的把握,同时避免了对画面质量和文本对齐度的损害。
此外,SkyReels-V2 还采用了两阶段的高质量监督微调策略,分别针对 540p 与 720p 不同分辨率进行优化。第一阶段的微调聚焦于概念均衡与模型初始化,第二阶段则更重视分辨率提升和整体画质细节的打磨。配合强大的计算资源调度体系,这一流程使得生成结果在专业评测中表现优异。
在性能评测方面,SkyReels-V2 在自建的 SkyReels-Bench 和公开的 V-Bench 基准上,均取得了领先的综合得分,尤其是在指令遵循性、一致性、视觉质量等维度上优势明显。无论是文本到视频(T2V)还是图像到视频(I2V)任务,SkyReels-V2 都显示出对现有主流开源模型的全面超越,部分指标已逼近甚至媲美商业闭源系统。
视频质量人工评测
为了进行人工评测,技术团队设计了 SkyReels-Bench 基准集,包含 1020 条文本提示,系统性地从指令遵循性、运动表现、一致性与视觉质量三大维度对模型进行评估。该基准覆盖文本生成视频(T2V)和图像生成视频(I2V)两类模型,能全面衡量不同生成范式的表现。为确保公平,所有模型均在默认设置下、使用统一分辨率进行评测,且未对生成结果做任何后处理或筛选。
文本转视频模型(Text To Video Models)
| 模型名称 | 平均分 | 指令遵循性 | 一致性 | 视觉质量 | 运动表现 |
|---|---|---|---|---|---|
| Runway-Gen3 Alpha | 2.53 | 2.19 | 2.57 | 3.23 | 2.11 |
| HunyuanVideo-13B | 2.82 | 2.64 | 2.81 | 3.20 | 2.61 |
| Kling-1.6 STD Mode | 2.99 | 2.77 | 3.05 | 3.39 | 2.76 |
| Hailuo-01 | 3.0 | 2.8 | 3.08 | 3.29 | 2.74 |
| Wan2.1-14B | 3.12 | 2.91 | 3.31 | 3.54 | 2.71 |
| SkyReels-V2 | 3.14 | 3.15 | 3.35 | 3.34 | 2.74 |
评测结果显示,SkyReels-V2 在指令遵循性(3.15)方面相比基线方法取得了显著提升,同时在 运动表现(2.74)上保持了与主流模型相当的水准,并未牺牲一致性(3.35)。
图像转视频模型(Image To Video Models)
| 模型名称 | 平均分 | 指令遵循性 | 一致性 | 视觉质量 | 运动表现 |
|---|---|---|---|---|---|
| HunyuanVideo-13B | 2.84 | 2.97 | 2.95 | 2.87 | 2.56 |
| Wan2.1-14B | 2.85 | 3.10 | 2.81 | 3.00 | 2.48 |
| Hailuo-01 | 3.05 | 3.31 | 2.58 | 3.55 | 2.74 |
| Kling-1.6 Pro Mode | 3.4 | 3.56 | 3.03 | 3.58 | 3.41 |
| Runway-Gen4 | 3.39 | 3.75 | 3.2 | 3.4 | 3.37 |
| SkyReels-V2-DF | 3.24 | 3.64 | 3.21 | 3.18 | 2.93 |
| SkyReels-V2-I2V | 3.29 | 3.42 | 3.18 | 3.56 | 3.01 |
结果显示,SkyReels-V2-I2V(3.29)和 SkyReels-V2-DF(3.24)在开源模型中均达到了业界领先水准,显著超越 HunyuanVideo-13B(2.84)与 Wan2.1-14B(2.85)等主流模型。在平均分上,SkyReels-V2-I2V(3.29)已与 Kling-1.6(3.4)、Runway-Gen4(3.39)等闭源商业模型表现相当。
可用于视频生成的主要自定义参数
| 参数 | 推荐值 | 说明 |
|---|---|---|
|
用于生成视频的文本描述 | |
|
用于图像转视频的输入图像路径 | |
|
540P 或 720P | 输出视频分辨率(需根据模型类型选择) |
97 或 121 --inference_steps --fps --shift --guidance_scale --seed 固定随机种子以复现结果(如不指定则为随机生成) --offload --use_usp --outdir --prompt_enhancer Diffusion Forcing 额外参数 参数 --ar_step --base_num_frames --overlap_history --addnoise_condition --causal_block_size SkyReels-V2 项目地址:https://github.com/SkyworkAI/SkyReels-V2 相关文章AI 新闻资讯 2026年4月22日 0 条评论 小创 Opus 4.7 编程飞轮再加速,Mythos 悬而未发Anthropic 发布 Claude Opus 4.7,编程能力跃升至 SWE-bench Pro 64.3 分,文档推理与视觉导航表现显著优于 GPT-5.4。模型刻意削弱了安全漏洞复现能力,并采用新 Tokenizer 导致消耗增加。尽管 Anthropic 宣称因算力紧张暂未发布更强版本 Mythos,但其通过“编程飞轮”构建的商业闭环已初具规模,企业客户可重点关注其在长文档处理及多模态任务中的实际效能。 #Mythos#Anthropic 阅读全文 AI 新闻资讯 2026年4月22日 0 条评论 小创 Google I/O 2026 前瞻,这次 Google 压上了全部家当Google I/O 2026 定档 5 月 19 日至 20 日,被视为谷歌史上赌注最大的一届。核心看点包括 Gemini 4 首秀、Veo 4 视频生成升级及轻量级 AI 眼镜发布。更关键的是 Aluminium OS 桌面系统亮相,旨在补齐移动与桌面闭环。在千亿美元投入下,谷歌试图通过搜索、OS、硬件与智能体的全面重构,应对来自 GPT-6 等竞品的激烈挑战。 #Google 阅读全文 ![]() AI 新闻资讯 2026年4月20日 0 条评论 小创 OpenAI 的存在性问题OpenAI 近期收购个人理财初创公司 Hiro 和商业访谈媒体 TBPN ,看似小规模交易,实则暴露其两大困境:一是 ChatGPT 之外产品的变现难题,二是日趋紧张的公众形象。 Anthropic 在企业市场和编程工具领域持续施压,令 OpenAI 焦虑。这两次收购更像是修补产品线、修复舆论的应急之举,而非战略扩张。 #OpenAI 阅读全文 互动讨论 评论区围绕《突破时长,无限长度开源 AI 视频生成模型:SkyReels-V2》展开交流,未登录用户可浏览评论,登录后可参与讨论。 评论数 0 登录后参与评论 支持发表观点与回复一级评论,互动后将同步到消息中心。 暂无评论,欢迎成为第一个参与讨论的人。 |
