#Runway
Runway 推出 Characters,让 AI 聊天机器人有形象、声音和个性
Runway 推出 Characters 功能,用户上传正面人像、选择声音、命名并设定个性(如徒步向导或语言老师),一分钟内即可生成具形象、声音与行为逻辑的 AI 角色,让对话更自然、更有代入感。
Runway 年终 5 大升级 向通用世界模型迈出一大步
Runway 年终发布五大升级,核心是 Gen-4.5 多模态视频模型(支持有声电影生成与音画协同编辑)和通用世界模型 GWM-1;后者涵盖虚拟空间构建(GWM Worlds)、高保真数字人(GWM Avatars)、机器人训练模拟(GWM Robotics),并联合英伟达等共建大规模训练平台。
AI 惊悚科幻短片《The Third Den》
Juan Felipe Orozco 用 Runway 工作流打造2分多钟AI惊悚科幻短片《The Third Den》(《撒诞》),画面连贯、表情动作自然、氛围压抑有力;为达成理想效果,耗时300小时生成2000多个片段。
Runway 转型一站式 AI 创作平台
Runway 正推进一站式 AI 创作平台战略:视频生成与编辑仍由自研 Gen-4 和 Aleph 模型支撑;图像生成引入 Google 的 Nano Banana;音频能力则整合 ElevenLabs。体现“核心自研+关键第三方”协同路径,聚焦创作者工作流整合。
Runway 推出工作流 让视频制作更加简单直观
Runway 推出工作流(Workflows)功能,融合大语言模型,让视频生成、编辑与合成更快速、更直观。这一更新标志着其重心从底层技术探索转向实际创作场景落地,AI视频工具正变得更易用、更贴近创作者日常需求。
如何构建 Runway 自定义工作流
Runway 自定义工作流支持模块化搭建,操作逻辑类似 ComfyUI;文本生成调用 Gemini 2.5 Flash,图像生成采用第三方 Nano Banana 模型,仅视频生成节点使用 Runway 自研的 Gen-4 模型。
如果复仇者联盟是一部 1950 年代的电影
两年前,AI视频初兴,创作者便用Midjourney、Runway等工具将《复仇者联盟》魔改为1950年代老电影风格;虽早期效果生硬如“会动的PPT”,但Abandoned Films等人的持续实践,清晰呈现了两年间AI视频在质感、连贯性与时代氛围还原上的显著跃升。
Runway 学院:如何将 Gen-4 的参考功能和将 3D 素材相互结合
Runway Gen-4 新增 3D 素材整合能力:将 3D 模型渲染为静态图后,结合风格参考图与提示词,可精准控制场景元素、镜头视角与视觉风格,生成高质量定制化视频,大幅提升动态内容的创作自由度与表现力。
如何通过 AI 视频技术进行服装设计
Runway Gen-4 支持上传3张服装图作为风格参考,配合提示词即可生成创意服饰视频,为设计师快速拓展灵感。该技术是辅助工具,不替代人类在审美判断与设计决策中的核心作用。