#图像生成
ComfyUI 现已支持 Luma 绘画模型 Photon
ComfyUI 新增支持 Luma AI 的 Photon 绘画模型,通过安装「ComfyUI-LumaAI-API」插件即可调用。支持文生图、图像/角色/风格参考及图像修改等多类工作流,适用于微距摄影、矢量插图、华丽服饰设计、动物形态转换等创意场景。
Luma 发布绘画引擎 Photon 性能超越 Midjourney
Luma推出全新图像生成引擎Photon及极速版Photon Flash,在双盲测试中质量、创造力与理解力全面超越Midjourney等主流模型;1080p图像生成成本低至0.4美分,速度提升超10倍,专为电影、设计与艺术创作优化。
创造力即搜索:映射潜在空间
将创意过程视为在生成模型潜在空间中的搜索,新原型以图像节点与过渡视频构成图结构,支持非线性探索、变体生成与图生图等兼顾控制与偶然性的交互方式,配合开放工作空间和序列器,让AI真正成为创意探索的主动伙伴。
FLUX1.1 [pro] 推出 Ultra 模式,能够生成400万像素的图像
FLUX1.1 [pro] 新增 Ultra 模式,支持 400 万像素高分辨率图像生成,单张仅需 10 秒,速度超同类模型 2.5 倍,成本低至 0.06 美元;同步上线 Raw 模式,显著提升人像多样性与自然摄影真实感;现开放 Replicate 平台调用。
Stable Diffusion 3.5 发布 ControlNets
Stable Diffusion 3.5 Large 新增 Blur、Canny、Depth 三款免费 ControlNets,支持 ComfyUI;Blur 可超分至 16K,Canny 精准控结构,Depth 助力建筑渲染与构图控制;ELO 测评用户偏好第一;年收入百万美元以下企业可免费商用。
如何在 ComfyUI 中添加可灵功能节点
ComfyUI 新增可灵 API 功能节点,支持文生图、文生视频、图生视频及 Kolors 虚拟试穿。用户只需克隆仓库、安装依赖并配置 API 密钥(可选存于 config.ini),即可在工作流中直接调用,无需编码,适合想快速集成多模态生成能力的创作者与开发者。
如何通过 Flux Pose Lock 精确控制图像视频中人物的动作
RenderNet 基于 Flux 模型推出 Pose Lock 动作锁定功能,支持上传参考图或选用模板精准控制人物姿态,适配图像与视频生成;可选 Canny(优化2D)或 Depth(强化3D)模式,并通过内置 Video Anyone(调用 Runway API)一键转图成片,适用于广告、艺术创作及虚拟网红内容生产。
ComfyUI 极简入门
ComfyUI 是一款本地运行的节点式 AI 生成工具,无需编程即可通过拖拽节点搭建图像/视频工作流。支持模板一键启动、自动下载模型、JSON 工作流导入导出,并可通过 ComfyUI Manager 安装自定义节点,适配主流开源模型,适合想深入控制生成过程的创作者快速上手。
ComfyUI 桌面版用户指南
ComfyUI 桌面版(原V1)已开放Windows(NVIDIA)与macOS(ARM)测试,支持一键安装、模板工作流引导、自动模型下载、内置Manager节点管理、日志/终端集成、快捷键自定义及崩溃报告选项,更新与卸载也更灵活可控。