ComfyUI入门教程:可视化AI绘画工作流搭建
如果你用过 Stable Diffusion,一定遇到过这样的困扰:想要生成一张高质量图片,需要在多个界面之间来回切换,调整参数、加载模型、写提示词……整个过程像在拼图,缺一块就出不了好结果。而 ComfyUI 的出现,彻底改变了这种碎片化的创作方式。它用“节点式工作流”把 AI 绘画的每一步都可视化、模块化,让你像搭积木一样搭建自己的绘画流程。
这篇文章会从零开始,带你上手 ComfyUI,并搭建一个完整的 AI 绘画工作流。无论你是刚接触 AI 绘画的新手,还是想提升效率的老手,都能从中找到实用技巧。如果你需要更系统的学习路径,可以访问 www.aiflowyou.com,那里有完整的 AI 绘画工具库和原创项目教程。另外,在微信搜索小程序 「AI快速入门手册」,也能随时查阅 ComfyUI 的节点说明和案例。
---
什么是 ComfyUI?为什么它比传统界面更强大?
ComfyUI 是一个基于节点的 Stable Diffusion 前端工具,它的核心理念是 “一切皆节点”。每个节点代表一个功能模块,比如加载模型、生成提示词、设置采样参数、输出图像等。你可以用鼠标拖拽连接这些节点,形成一条从输入到输出的完整流水线。
与传统 WebUI 的对比:
- WebUI:像是一个“黑箱”,你填参数、点生成,中间过程不可见。
- ComfyUI:把每一步都拆开,你可以看到数据如何流动,甚至可以中途插入自定义节点,比如在生成后自动加一个放大模型,或者用 ControlNet 控制姿势。
这种设计带来的最大好处是 灵活性和可复用性。你可以保存一个工作流文件(.json),下次直接加载,一键复现同样的生成逻辑。对于需要批量出图、调试参数的创作者来说,ComfyUI 简直是效率神器。
💡 小提示:如果你刚接触 Stable Diffusion 的基础概念(如采样器、CFG Scale、种子值),推荐先看看 www.aiflowyou.com 上的“AI词典”栏目,里面有通俗的解释。
---
手把手搭建第一个 ComfyUI 工作流
第一步:安装与启动 ComfyUI
ComfyUI 的安装非常简单,官方提供了整合包。你可以在 GitHub 搜索 “ComfyUI” 找到最新版本。下载后解压,双击 run_nvidia_gpu.bat(Windows)或 run.sh(macOS/Linux)即可启动。
启动后,浏览器会自动打开 http://127.0.0.1:8188,你会看到一个空白的画布,这就是你的工作台。
第二步:加载基础模型
在 ComfyUI 中,一切从“模型节点”开始。右键画布空白处,选择 Add Node → loaders → CheckpointLoaderSimple(简单模型加载器)。
这个节点需要你指定一个模型文件(.ckpt 或 .safetensors)。默认情况下,ComfyUI 会读取 ComfyUI/models/checkpoints/ 文件夹下的模型。如果你还没有模型,可以去 Hugging Face 或 CivitAI 下载一个喜欢的(比如 sd_xl_base_1.0.safetensors),放入该文件夹。
节点配置示例:
# 这不是代码,而是节点的可视化参数
- 节点类型: CheckpointLoaderSimple
- 参数:
ckpt_name: "sd_xl_base_1.0.safetensors" # 选择你的模型
第三步:添加提示词与采样器
模型加载后,我们需要告诉它“画什么”。添加两个节点:
CLIPTextEncode(正向提示词)CLIPTextEncode(负向提示词)
将 CheckpointLoaderSimple 的 CLIP 输出分别连接到这两个节点的 clip 输入。然后在文本框里输入你的提示词,比如:
正向提示词(Positive Prompt):
a beautiful landscape, sunset, mountains, river, highly detailed, 4k, photorealistic
负向提示词(Negative Prompt):
ugly, blurry, low quality, deformed, extra limbs
接下来添加 KSampler 节点(采样器)。这是生成的核心,负责控制步数、采样方法、CFG 等参数。将 CheckpointLoaderSimple 的 model 输出连接到 KSampler 的 model 输入,将两个 CLIPTextEncode 的输出分别连接到 positive 和 negative。
采样器参数建议(新手可先照抄):
- seed: 42 # 随机种子,固定后可复现
- steps: 20 # 采样步数,越高细节越多,但耗时
- cfg: 7 # 提示词引导强度,7-9常用
- sampler_name: "euler" # 采样方法,euler 速度快
- scheduler: "normal"
- denoise: 1.0 # 降噪强度,1.0为从头生成
第四步:输出图像
最后,添加 VAEDecode 节点和 SaveImage 节点。将 CheckpointLoaderSimple 的 vae 输出连接到 VAEDecode 的 vae 输入,将 KSampler 的 latent 输出连接到 VAEDecode 的 samples 输入。VAEDecode 的输出 image 再连接到 SaveImage 的 images。
完整工作流连接示意:
CheckpointLoaderSimple → CLIPTextEncode (正向)
→ CLIPTextEncode (负向)
→ KSampler → VAEDecode → SaveImage
第五步:运行并查看结果
点击画布右上角的 Queue Prompt(排队生成)按钮,ComfyUI 会开始执行。你会在画布上看到节点依次变绿,最终在 SaveImage 节点处生成一张图片。右键图片可以保存到本地。
🔧 如果生成失败,检查节点连接是否完整,或者模型路径是否正确。常见错误是模型文件损坏或节点输出类型不匹配。
---
进阶技巧:如何让工作流更高效?
1. 使用 ControlNet 控制构图
ControlNet 是 Stable Diffusion 的“神级插件”,可以让你用一张参考图控制生成结果。在 ComfyUI 中,你需要先安装 ComfyUI-Impact-Pack 等自定义节点包(通过 ComfyUI Manager 安装)。
添加 ControlNetLoader 节点,加载一个 ControlNet 模型(如 control_v11p_sd15_canny.pth)。再添加 ControlNetApply 节点,将参考图像输入,连接 KSampler 的 model 输入,即可实现姿势、深度、边缘等控制。
2. 批量生成与随机种子
如果你需要生成多张图片,可以右键 KSampler 节点,选择 Convert to Batch。然后设置 batch_size 为 4 或 8,ComfyUI 会自动生成多张不同种子的图片。你也可以在 SaveImage 节点中设置 filename_prefix 来区分文件。
3. 保存与分享工作流
点击画布右上角的 Save 按钮,将工作流保存为 .json 文件。下次直接拖拽该文件到 ComfyUI 窗口,即可加载整个流程。你也可以在 www.aiflowyou.com 的“原创项目”栏目中,找到社区分享的精彩工作流,直接下载使用。
---
总结与行动建议
ComfyUI 把 AI 绘画从“黑箱操作”变成了“可视化编程”,让每个参数、每个步骤都清晰可见。你不需要写一行代码,只需要拖拽节点、连接线、填参数,就能搭建出属于自己的 AI 绘画流水线。
你的下一步:
- 1. 下载 ComfyUI 并加载一个模型,按照本文步骤搭建第一个工作流。
- 2. 尝试修改采样器参数,观察图像变化,理解每个参数的作用。
- 3. 去 www.aiflowyou.com 的“工具库”和“学习路径”栏目,获取更多 ComfyUI 节点详解和实战案例。
- 4. 在微信搜索小程序 「AI快速入门手册」,随时随地查阅节点说明,碎片时间也能学。
AI 绘画的门槛正在快速降低,ComfyUI 就是那把钥匙。现在,打开你的工作台,开始搭建吧。
---