
目前,大多数视频生成模型一次生成的视频长度通常仅为 5 到 10 秒。SkyReels-V2 则致力于打破这一局限,实现真正的无限长度视频生成。近年来,得益于扩散模型和自回归框架的不断进步,视频生成领域取得了显著发展,但依然面临着诸多难题。例如,在追求画面视觉质量的同时,运动流畅性往往被牺牲。视频长度受到分辨率和带宽的限制。现有的大模型在理解和表达镜头语言方面也存在不足,生成的内容难以呈现出专业电影所需的叙事和美学。SkyReels-V2 正是在这样的背景下应运而生,旨在突破上述瓶颈,为生成式视频技术带来新的可能。
视频演示
模型介绍
该模型的核心创新在于引入了 Diffusion Forcing 扩散强制机制,这是目前首个可支持无限时长连续生成的方案。与传统扩散模型一刀切的噪声调度不同,Diffusion Forcing 允许每一个 Token 拥有独立的噪声等级,模型可以灵活地在序列中部分掩码、部分恢复,实现任意长度视频的无缝续写。理论上,这相当于为生成模型提供了 “随时接续” 的能力,极大拓展了电影级视频的生成长度与连续性。
在数据处理和训练策略上,SkyReels-V2 利用了多模态大模型的集成思路。团队构建了完善的视频标注体系,其中 SkyCaptioner-V1 担任视频描述生成器,基于 Qwen2.5-VL-7B-Instruct 进行定制化微调,并在两百万规模的视频数据集上平衡标注。该模型在镜头类型、角度、主体位置、表情等多个维度的标注准确率上,超越了目前的主流开源模型,为后续生成模型的训练提供了高质量的语义基础。
在生成质量优化环节,SkyReels-V2 引入了强化学习机制。针对长视频中大幅度、可变形运动的生成难题,团队采用了半自动化的偏好标注流程,将自动生成的运动对与人工评估结合,训练了专门的奖励模型以优化运动表现。这种方法有效提升了模型对物理规律和运动连贯性的把握,同时避免了对画面质量和文本对齐度的损害。
此外,SkyReels-V2 还采用了两阶段的高质量监督微调策略,分别针对 540p 与 720p 不同分辨率进行优化。第一阶段的微调聚焦于概念均衡与模型初始化,第二阶段则更重视分辨率提升和整体画质细节的打磨。配合强大的计算资源调度体系,这一流程使得生成结果在专业评测中表现优异。
在性能评测方面,SkyReels-V2 在自建的 SkyReels-Bench 和公开的 V-Bench 基准上,均取得了领先的综合得分,尤其是在指令遵循性、一致性、视觉质量等维度上优势明显。无论是文本到视频(T2V)还是图像到视频(I2V)任务,SkyReels-V2 都显示出对现有主流开源模型的全面超越,部分指标已逼近甚至媲美商业闭源系统。
视频质量人工评测
为了进行人工评测,技术团队设计了 SkyReels-Bench 基准集,包含 1020 条文本提示,系统性地从指令遵循性、运动表现、一致性与视觉质量三大维度对模型进行评估。该基准覆盖文本生成视频(T2V)和图像生成视频(I2V)两类模型,能全面衡量不同生成范式的表现。为确保公平,所有模型均在默认设置下、使用统一分辨率进行评测,且未对生成结果做任何后处理或筛选。
文本转视频模型(Text To Video Models)
| 模型名称 | 平均分 | 指令遵循性 | 一致性 | 视觉质量 | 运动表现 |
|---|---|---|---|---|---|
| Runway-Gen3 Alpha | 2.53 | 2.19 | 2.57 | 3.23 | 2.11 |
| HunyuanVideo-13B | 2.82 | 2.64 | 2.81 | 3.20 | 2.61 |
| Kling-1.6 STD Mode | 2.99 | 2.77 | 3.05 | 3.39 | 2.76 |
| Hailuo-01 | 3.0 | 2.8 | 3.08 | 3.29 | 2.74 |
| Wan2.1-14B | 3.12 | 2.91 | 3.31 | 3.54 | 2.71 |
| SkyReels-V2 | 3.14 | 3.15 | 3.35 | 3.34 | 2.74 |
评测结果显示,SkyReels-V2 在指令遵循性(3.15)方面相比基线方法取得了显著提升,同时在 运动表现(2.74)上保持了与主流模型相当的水准,并未牺牲一致性(3.35)。
图像转视频模型(Image To Video Models)
| 模型名称 | 平均分 | 指令遵循性 | 一致性 | 视觉质量 | 运动表现 |
|---|---|---|---|---|---|
| HunyuanVideo-13B | 2.84 | 2.97 | 2.95 | 2.87 | 2.56 |
| Wan2.1-14B | 2.85 | 3.10 | 2.81 | 3.00 | 2.48 |
| Hailuo-01 | 3.05 | 3.31 | 2.58 | 3.55 | 2.74 |
| Kling-1.6 Pro Mode | 3.4 | 3.56 | 3.03 | 3.58 | 3.41 |
| Runway-Gen4 | 3.39 | 3.75 | 3.2 | 3.4 | 3.37 |
| SkyReels-V2-DF | 3.24 | 3.64 | 3.21 | 3.18 | 2.93 |
| SkyReels-V2-I2V | 3.29 | 3.42 | 3.18 | 3.56 | 3.01 |
结果显示,SkyReels-V2-I2V(3.29)和 SkyReels-V2-DF(3.24)在开源模型中均达到了业界领先水准,显著超越 HunyuanVideo-13B(2.84)与 Wan2.1-14B(2.85)等主流模型。在平均分上,SkyReels-V2-I2V(3.29)已与 Kling-1.6(3.4)、Runway-Gen4(3.39)等闭源商业模型表现相当。
可用于视频生成的主要自定义参数
| 参数 | 推荐值 | 说明 |
|---|---|---|
|
用于生成视频的文本描述 | |
|
用于图像转视频的输入图像路径 | |
|
540P 或 720P | 输出视频分辨率(需根据模型类型选择) |
97 或 121 --inference_steps --fps --shift --guidance_scale --seed 固定随机种子以复现结果(如不指定则为随机生成) --offload --use_usp --outdir --prompt_enhancer Diffusion Forcing 额外参数 参数 --ar_step --base_num_frames --overlap_history --addnoise_condition --causal_block_size SkyReels-V2 项目地址:https://github.com/SkyworkAI/SkyReels-V2 相关文章AI 新闻资讯 2026年5月12日 0 条评论 小创 三种记忆模式解决 AI 智能体的金鱼记忆很多 AI 智能体表现“迟钝”,往往并非模型能力不足,而是缺乏记忆机制。Google 技术专家基于 ADK 提出三种解决方案:会话记忆让助手在单次对话中记住上下文;多智能体状态共享支持多个智能体通过键值对协作传递信息;持久化存储则利用数据库替代内存,使智能体能跨越重启记录用户偏好。这些方法能有效解决“金鱼记忆”问题,帮助开发者构建更连贯、具备长期服务能力的个人助理应用。 #智能体工程 阅读全文 AI 新闻资讯 2026年5月8日 0 条评论 小创 ChatGPT 开始卖广告了,但 OpenAI 真正的野心在语音5 月 7 日,OpenAI 在英、巴等五国启动 ChatGPT 广告内测,并推出三款具备 GPT-5 级推理能力的实时语音模型。广告业务强调隐私与回答独立性,旨在探索免费用户变现路径。新语音模型则支持复杂任务操作,加速企业付费场景落地。此举标志 OpenAI 从技术验证转向商业模式规模化,证明 AI 产品可兼顾用户体验与多元盈利,为行业商业化提供了关键风向标。 #OpenAI 阅读全文 ![]() AI 新闻资讯 2026年5月8日 0 条评论 小创 让 AI 视频拥有电影质感的九层结构提示词如何让 AI 视频拥有电影质感?提示词应采用导演语言而非被动描述,需包含主体、微动作、环境、摄像机、灯光、风格、情绪、物理细节、渲染质量九层结构。文章还总结了微动作工程、摄像机定义、布光逻辑、情绪编码及可控混乱等策略,并提供了多条完整示例。创作者需注意框架易致同质化,真正的竞争壁垒在于对细节分寸和不可模板化判断的把握。 #Runway#视频生成 阅读全文 互动讨论 评论区围绕《突破时长,无限长度开源 AI 视频生成模型:SkyReels-V2》展开交流,未登录用户可浏览评论,登录后可参与讨论。 评论数 0 登录后参与评论 支持发表观点与回复一级评论,互动后将同步到消息中心。 暂无评论,欢迎成为第一个参与讨论的人。 |
