ComfyUI入门教程:可视化AI绘画工作流搭建

📅 2026-05-07 · AI快速入门手册 · 阅读约 11 分钟

如果你用过 Stable Diffusion,一定遇到过这样的困扰:想要生成一张高质量图片,需要在多个界面之间来回切换,调整参数、加载模型、写提示词……整个过程像在拼图,缺一块就出不了好结果。而 ComfyUI 的出现,彻底改变了这种碎片化的创作方式。它用“节点式工作流”把 AI 绘画的每一步都可视化、模块化,让你像搭积木一样搭建自己的绘画流程。

这篇文章会从零开始,带你上手 ComfyUI,并搭建一个完整的 AI 绘画工作流。无论你是刚接触 AI 绘画的新手,还是想提升效率的老手,都能从中找到实用技巧。如果你需要更系统的学习路径,可以访问 www.aiflowyou.com,那里有完整的 AI 绘画工具库和原创项目教程。另外,在微信搜索小程序 「AI快速入门手册」,也能随时查阅 ComfyUI 的节点说明和案例。

---

什么是 ComfyUI?为什么它比传统界面更强大?

ComfyUI 是一个基于节点的 Stable Diffusion 前端工具,它的核心理念是 “一切皆节点”。每个节点代表一个功能模块,比如加载模型、生成提示词、设置采样参数、输出图像等。你可以用鼠标拖拽连接这些节点,形成一条从输入到输出的完整流水线。

与传统 WebUI 的对比:

这种设计带来的最大好处是 灵活性和可复用性。你可以保存一个工作流文件(.json),下次直接加载,一键复现同样的生成逻辑。对于需要批量出图、调试参数的创作者来说,ComfyUI 简直是效率神器。

💡 小提示:如果你刚接触 Stable Diffusion 的基础概念(如采样器、CFG Scale、种子值),推荐先看看 www.aiflowyou.com 上的“AI词典”栏目,里面有通俗的解释。

---

手把手搭建第一个 ComfyUI 工作流

第一步:安装与启动 ComfyUI

ComfyUI 的安装非常简单,官方提供了整合包。你可以在 GitHub 搜索 “ComfyUI” 找到最新版本。下载后解压,双击 run_nvidia_gpu.bat(Windows)或 run.sh(macOS/Linux)即可启动。

启动后,浏览器会自动打开 http://127.0.0.1:8188,你会看到一个空白的画布,这就是你的工作台。

第二步:加载基础模型

在 ComfyUI 中,一切从“模型节点”开始。右键画布空白处,选择 Add NodeloadersCheckpointLoaderSimple(简单模型加载器)。

这个节点需要你指定一个模型文件(.ckpt 或 .safetensors)。默认情况下,ComfyUI 会读取 ComfyUI/models/checkpoints/ 文件夹下的模型。如果你还没有模型,可以去 Hugging Face 或 CivitAI 下载一个喜欢的(比如 sd_xl_base_1.0.safetensors),放入该文件夹。

节点配置示例:

# 这不是代码,而是节点的可视化参数
- 节点类型: CheckpointLoaderSimple
- 参数:
    ckpt_name: "sd_xl_base_1.0.safetensors"  # 选择你的模型

第三步:添加提示词与采样器

模型加载后,我们需要告诉它“画什么”。添加两个节点:

CheckpointLoaderSimpleCLIP 输出分别连接到这两个节点的 clip 输入。然后在文本框里输入你的提示词,比如:

正向提示词(Positive Prompt):

a beautiful landscape, sunset, mountains, river, highly detailed, 4k, photorealistic

负向提示词(Negative Prompt):

ugly, blurry, low quality, deformed, extra limbs

接下来添加 KSampler 节点(采样器)。这是生成的核心,负责控制步数、采样方法、CFG 等参数。将 CheckpointLoaderSimplemodel 输出连接到 KSamplermodel 输入,将两个 CLIPTextEncode 的输出分别连接到 positivenegative

采样器参数建议(新手可先照抄):

- seed: 42              # 随机种子,固定后可复现
- steps: 20            # 采样步数,越高细节越多,但耗时
- cfg: 7               # 提示词引导强度,7-9常用
- sampler_name: "euler" # 采样方法,euler 速度快
- scheduler: "normal"
- denoise: 1.0         # 降噪强度,1.0为从头生成

第四步:输出图像

最后,添加 VAEDecode 节点和 SaveImage 节点。将 CheckpointLoaderSimplevae 输出连接到 VAEDecodevae 输入,将 KSamplerlatent 输出连接到 VAEDecodesamples 输入。VAEDecode 的输出 image 再连接到 SaveImageimages

完整工作流连接示意:

CheckpointLoaderSimple → CLIPTextEncode (正向)
                       → CLIPTextEncode (负向)
                       → KSampler → VAEDecode → SaveImage

第五步:运行并查看结果

点击画布右上角的 Queue Prompt(排队生成)按钮,ComfyUI 会开始执行。你会在画布上看到节点依次变绿,最终在 SaveImage 节点处生成一张图片。右键图片可以保存到本地。

🔧 如果生成失败,检查节点连接是否完整,或者模型路径是否正确。常见错误是模型文件损坏或节点输出类型不匹配。

---

进阶技巧:如何让工作流更高效?

1. 使用 ControlNet 控制构图

ControlNet 是 Stable Diffusion 的“神级插件”,可以让你用一张参考图控制生成结果。在 ComfyUI 中,你需要先安装 ComfyUI-Impact-Pack 等自定义节点包(通过 ComfyUI Manager 安装)。

添加 ControlNetLoader 节点,加载一个 ControlNet 模型(如 control_v11p_sd15_canny.pth)。再添加 ControlNetApply 节点,将参考图像输入,连接 KSamplermodel 输入,即可实现姿势、深度、边缘等控制。

2. 批量生成与随机种子

如果你需要生成多张图片,可以右键 KSampler 节点,选择 Convert to Batch。然后设置 batch_size 为 4 或 8,ComfyUI 会自动生成多张不同种子的图片。你也可以在 SaveImage 节点中设置 filename_prefix 来区分文件。

3. 保存与分享工作流

点击画布右上角的 Save 按钮,将工作流保存为 .json 文件。下次直接拖拽该文件到 ComfyUI 窗口,即可加载整个流程。你也可以在 www.aiflowyou.com 的“原创项目”栏目中,找到社区分享的精彩工作流,直接下载使用。

---

总结与行动建议

ComfyUI 把 AI 绘画从“黑箱操作”变成了“可视化编程”,让每个参数、每个步骤都清晰可见。你不需要写一行代码,只需要拖拽节点、连接线、填参数,就能搭建出属于自己的 AI 绘画流水线。

你的下一步:

AI 绘画的门槛正在快速降低,ComfyUI 就是那把钥匙。现在,打开你的工作台,开始搭建吧。

---

更多 AI 学习资源,访问 AI快速入门手册 →

Mini Program QR

微信扫码 · 打开小程序

WeChat QR

微信扫码 · 添加好友