目前,大多数视频生成模型一次生成的视频长度通常仅为 5 到 10 秒。SkyReels-V2 则致力于打破这一局限,实现真正的无限长度视频生成。近年来,得益于扩散模型和自回归框架的不断进步,视频生成领域取得了显著发展,但依然面临着诸多难题。例如,在追求画面视觉质量的同时,运动流畅性往往被牺牲。视频长度受到分辨率和带宽的限制。现有的大模型在理解和表达镜头语言方面也存在不足,生成的内容难以呈现出专业电影所需的叙事和美学。SkyReels-V2 正是在这样的背景下应运而生,旨在突破上述瓶颈,为生成式视频技术带来新的可能。
视频演示





模型介绍
该模型的核心创新在于引入了 Diffusion Forcing 扩散强制机制,这是目前首个可支持无限时长连续生成的方案。与传统扩散模型一刀切的噪声调度不同,Diffusion Forcing 允许每一个 Token 拥有独立的噪声等级,模型可以灵活地在序列中部分掩码、部分恢复,实现任意长度视频的无缝续写。理论上,这相当于为生成模型提供了 “随时接续” 的能力,极大拓展了电影级视频的生成长度与连续性。
在数据处理和训练策略上,SkyReels-V2 利用了多模态大模型的集成思路。团队构建了完善的视频标注体系,其中 SkyCaptioner-V1 担任视频描述生成器,基于 Qwen2.5-VL-7B-Instruct 进行定制化微调,并在两百万规模的视频数据集上平衡标注。该模型在镜头类型、角度、主体位置、表情等多个维度的标注准确率上,超越了目前的主流开源模型,为后续生成模型的训练提供了高质量的语义基础。
在生成质量优化环节,SkyReels-V2 引入了强化学习机制。针对长视频中大幅度、可变形运动的生成难题,团队采用了半自动化的偏好标注流程,将自动生成的运动对与人工评估结合,训练了专门的奖励模型以优化运动表现。这种方法有效提升了模型对物理规律和运动连贯性的把握,同时避免了对画面质量和文本对齐度的损害。
此外,SkyReels-V2 还采用了两阶段的高质量监督微调策略,分别针对 540p 与 720p 不同分辨率进行优化。第一阶段的微调聚焦于概念均衡与模型初始化,第二阶段则更重视分辨率提升和整体画质细节的打磨。配合强大的计算资源调度体系,这一流程使得生成结果在专业评测中表现优异。
在性能评测方面,SkyReels-V2 在自建的 SkyReels-Bench 和公开的 V-Bench 基准上,均取得了领先的综合得分,尤其是在指令遵循性、一致性、视觉质量等维度上优势明显。无论是文本到视频(T2V)还是图像到视频(I2V)任务,SkyReels-V2 都显示出对现有主流开源模型的全面超越,部分指标已逼近甚至媲美商业闭源系统。
视频质量人工评测
为了进行人工评测,技术团队设计了 SkyReels-Bench 基准集,包含 1020 条文本提示,系统性地从指令遵循性、运动表现、一致性与视觉质量三大维度对模型进行评估。该基准覆盖文本生成视频(T2V)和图像生成视频(I2V)两类模型,能全面衡量不同生成范式的表现。为确保公平,所有模型均在默认设置下、使用统一分辨率进行评测,且未对生成结果做任何后处理或筛选。
文本转视频模型(Text To Video Models)
模型名称 | 平均分 | 指令遵循性 | 一致性 | 视觉质量 | 运动表现 |
---|---|---|---|---|---|
Runway-Gen3 Alpha | 2.53 | 2.19 | 2.57 | 3.23 | 2.11 |
HunyuanVideo-13B | 2.82 | 2.64 | 2.81 | 3.20 | 2.61 |
Kling-1.6 STD Mode | 2.99 | 2.77 | 3.05 | 3.39 | 2.76 |
Hailuo-01 | 3.0 | 2.8 | 3.08 | 3.29 | 2.74 |
Wan2.1-14B | 3.12 | 2.91 | 3.31 | 3.54 | 2.71 |
SkyReels-V2 | 3.14 | 3.15 | 3.35 | 3.34 | 2.74 |
评测结果显示,SkyReels-V2 在指令遵循性(3.15)方面相比基线方法取得了显著提升,同时在 运动表现(2.74)上保持了与主流模型相当的水准,并未牺牲一致性(3.35)。
图像转视频模型(Image To Video Models)
模型名称 | 平均分 | 指令遵循性 | 一致性 | 视觉质量 | 运动表现 |
---|---|---|---|---|---|
HunyuanVideo-13B | 2.84 | 2.97 | 2.95 | 2.87 | 2.56 |
Wan2.1-14B | 2.85 | 3.10 | 2.81 | 3.00 | 2.48 |
Hailuo-01 | 3.05 | 3.31 | 2.58 | 3.55 | 2.74 |
Kling-1.6 Pro Mode | 3.4 | 3.56 | 3.03 | 3.58 | 3.41 |
Runway-Gen4 | 3.39 | 3.75 | 3.2 | 3.4 | 3.37 |
SkyReels-V2-DF | 3.24 | 3.64 | 3.21 | 3.18 | 2.93 |
SkyReels-V2-I2V | 3.29 | 3.42 | 3.18 | 3.56 | 3.01 |
结果显示,SkyReels-V2-I2V(3.29)和 SkyReels-V2-DF(3.24)在开源模型中均达到了业界领先水准,显著超越 HunyuanVideo-13B(2.84)与 Wan2.1-14B(2.85)等主流模型。在平均分上,SkyReels-V2-I2V(3.29)已与 Kling-1.6(3.4)、Runway-Gen4(3.39)等闭源商业模型表现相当。
可用于视频生成的主要自定义参数
参数 | 推荐值 | 说明 |
---|---|---|
--prompt |
用于生成视频的文本描述 | |
--image |
用于图像转视频的输入图像路径 | |
--resolution |
540P 或 720P | 输出视频分辨率(需根据模型类型选择) |
--num_frames |
97 或 121 | 生成的总帧数(540P 模型为 97,720P 模型为 121) |
--inference_steps |
50 | 去噪步骤数 |
--fps |
24 | 输出视频的每秒帧数 |
--shift |
8.0 或 5.0 | 流匹配调度参数(T2V 任务推荐 8.0,I2V 任务推荐 5.0) |
--guidance_scale |
6.0 或 5.0 | 文本引导强度(T2V 推荐 6.0,I2V 推荐 5.0) |
--seed |
固定随机种子以复现结果(如不指定则为随机生成) | |
--offload |
True | 将模型组件转移至 CPU 以减少显存占用(推荐开启) |
--use_usp |
True | 启用 xDiT USP 多卡推理加速 |
--outdir |
./video_out |
生成视频保存目录 |
--prompt_enhancer |
True | 将简短提示词扩展为更详细描述 |
Diffusion Forcing 额外参数
参数 | 推荐值 | 说明 |
---|---|---|
--ar_step |
0 | 控制异步推理(0 代表同步模式) |
--base_num_frames |
97 或 121 | 基础帧数(540P 为 97,720P 为 121) |
--overlap_history |
17 | 长视频生成时用于平滑过渡的重叠帧数 |
--addnoise_condition |
20 | 提升长视频生成一致性 |
--causal_block_size |
5 | 异步推理(--ar_step > 0 )时推荐设置 |
- SkyReels-V2 项目地址:https://github.com/SkyworkAI/SkyReels-V2
- SkyReels-V2 论文地址:https://arxiv.org/pdf/2504.13074
评论(0)