由 AI 视频达人 Kabooki 借助阿里视频生成模型 Wan 2.1 制作的一部动画短片。
Wan 2.1 是阿里推出的一款开源视频生成模型,可本地部署,在 ComfyUI 中使用。
模型下载地址:https://github.com/Wan-Video/Wan2.1
或者可以通过通义万相免费使用,目前生成一段视频需要等待 10-30 分钟。
由 AI 视频达人 Kabooki 借助阿里视频生成模型 Wan 2.1 制作的一部动画短片。
Wan 2.1 是阿里推出的一款开源视频生成模型,可本地部署,在 ComfyUI 中使用。
模型下载地址:https://github.com/Wan-Video/Wan2.1
或者可以通过通义万相免费使用,目前生成一段视频需要等待 10-30 分钟。

如何让 AI 视频拥有电影质感?提示词应采用导演语言而非被动描述,需包含主体、微动作、环境、摄像机、灯光、风格、情绪、物理细节、渲染质量九层结构。文章还总结了微动作工程、摄像机定义、布光逻辑、情绪编码及可控混乱等策略,并提供了多条完整示例。创作者需注意框架易致同质化,真正的竞争壁垒在于对细节分寸和不可模板化判断的把握。
字节跳动 Seedance 2.0 凭借多镜头叙事能力脱颖而出,在角色一致性、场景转换及四模态输入上实现突破。实测显示其可用产出率达 90%,远超行业平均,且支持无水印输出与自动音频生成。尽管长片段连贯性仍有局限,但作为目前唯一能完整讲故事的 AI 视频模型,它已成为专业创作者的核心选择。
Seedance 2.0 接入 Lovart 后,AI 短片制作流程趋于完整。博主 FILM CRUX 分享了 13 个关键技巧:利用多角度功能提升角色一致性,通过拖拽物体控制运动轨迹,借助音频驱动解决口型同步问题。工作流上支持从剧本直接生成分镜并批量转视频。此外,“运动预算”理念建议镜头聚焦单一动作以增强电影感,配合实拍剪辑常识使用切入镜头遮盖瑕疵,能有效提升成片质量与连贯性。
围绕《阿里 AI 视频生成模型 Wan 2.1 动漫演示》展开交流,未登录用户可浏览评论,登录后可参与讨论。