安装
便携包
使用官方便携包安装 ComfyUI——无需安装程序。
便携包是 ComfyUI 的预构建、自包含版本。下载、解压即可运行——无需安装 Python 或修改系统设置。
此方式支持 NVIDIA、AMD 和 CPU 模式。详见 GPU 兼容性。
第 1 步:下载
前往 ComfyUI GitHub 发布页面下载便携包:
ComfyUI_windows_portable_nvidia.7z— 适用于 NVIDIA GPU(CUDA 13.0,Python 3.13)ComfyUI_windows_portable_nvidia_cu126.7z— 适用于较旧的 NVIDIA GPU(CUDA 12.6)
文件大小约 1-2 GB。
第 2 步:解压
请使用 7-Zip
你必须使用 7-Zip 解压存档。Windows 自带的 zip 工具可能因文件路径过长而解压失败。
- 右键点击下载的
.7z文件 - 选择 7-Zip → Extract to "ComfyUI_windows_portable/"
- 等待解压完成(可能需要几分钟)
如果解压失败:右键点击 .7z 文件 → 属性 → 勾选底部的解除锁定 → 点击应用,然后重试。
路径规则(重要!):
- 选择至少有 50 GB 可用空间的位置
- 避免路径中出现空格和特殊字符(例如,
D:\ComfyUI是好的,D:\My Programs\ComfyUI!是不好的) - 不要解压到系统文件夹,如
C:\Program Files、C:\Windows或C:\根目录 - 不要以管理员身份运行 — 这会导致 Python 包权限问题
- 保持路径简短以避免 Windows 260 字符路径限制(参阅长路径修复)
第 3 步:下载模型
在生成图片之前,你至少需要一个 checkpoint 模型。下载一个并放到正确的文件夹中:
ComfyUI_windows_portable/
└── ComfyUI/
└── models/
└── checkpoints/ ← 将你的 .safetensors 文件放在这里
常用的入门模型:
- SD 1.5(约 2 GB)— 速度快,VRAM 要求低,社区资源丰富
- SDXL(约 7 GB)— 更高质量,需要 8 GB+ VRAM
- Flux Schnell(约 12 GB)— 最新一代,需要 12 GB+ VRAM
详细下载链接和说明请参阅下载模型。
第 4 步:运行
双击根目录中对应的批处理文件:
| 文件 | 使用场景 |
|---|---|
run_nvidia_gpu.bat |
NVIDIA GPU(大多数用户) |
run_cpu.bat |
没有独立显卡,或 AMD GPU 搭配 DirectML |
控制台窗口会打开并显示启动日志。当你看到:
Starting server
To see the GUI go to: http://127.0.0.1:8188
在浏览器中打开 http://127.0.0.1:8188(推荐使用 Chrome)。
更新
更新 ComfyUI:
- 进入便携目录中的
update/文件夹 - 双击
update_comfyui.bat - 等待更新完成
- 重启 ComfyUI
要更新 Python 包(PyTorch 等),请使用 update/ 文件夹中的批处理文件。
文件夹结构
ComfyUI_windows_portable/
├── python_embeded/ # 内置 Python(请勿修改)
├── update/ # 更新脚本
│ ├── update_comfyui.bat
│ └── update_comfyui_stable.bat
├── ComfyUI/
│ ├── models/ # AI 模型
│ │ ├── checkpoints/ # 主模型(.safetensors)
│ │ ├── loras/ # LoRA 文件
│ │ ├── vae/ # VAE 文件
│ │ ├── controlnet/ # ControlNet 模型
│ │ ├── upscale_models/ # 放大模型
│ │ └── clip/ # CLIP 模型
│ ├── custom_nodes/ # 社区插件
│ ├── input/ # 图生图的输入图片
│ ├── output/ # 生成的图片
│ └── extra_model_paths.yaml # 与其他工具共享模型
├── run_nvidia_gpu.bat
└── run_cpu.bat
与 A1111 / Forge 共享模型
如果你已有其他 AI 工具的模型,无需重新下载。
方法 1:extra_model_paths.yaml
编辑 ComfyUI/extra_model_paths.yaml 指向你现有的模型文件夹:
a111:
base_path: D:/stable-diffusion-webui/ # 你的 A1111 路径
checkpoints: models/Stable-diffusion
vae: models/VAE
loras: models/Lora
upscale_models: models/ESRGAN
controlnet: models/ControlNet
保存后重启 ComfyUI。
方法 2:符号链接(Symlinks)
如果你想让 ComfyUI 直接使用现有的模型文件夹,可以创建 Windows 符号链接。这比复制文件更高效:
mklink /D "ComfyUI\models\checkpoints" "D:\my-models\checkpoints"
这使得 ComfyUI 将 D:\my-models\checkpoints 中的模型视为自己文件夹中的内容,无需复制文件。
注意
在 Windows 上创建符号链接可能需要启用开发者模式,或以管理员身份运行命令提示符(仅用于 mklink 命令,运行 ComfyUI 本身不需要)。
故障排查
| 问题 | 解决方案 |
|---|---|
| 浏览器显示标题但没有界面 | 更新到最新版本的 Chrome |
CUDA out of memory 错误 |
关闭其他占用 GPU 的应用,或在 bat 文件中添加 --lowvram |
torch is not compiled with CUDA |
你下载了错误的包。请使用 NVIDIA 版本 |
| 工作流中出现红色节点 | 缺少自定义节点。参阅安装自定义节点 |
| NVIDIA GPU 上生成速度慢 | 确保你运行的是 run_nvidia_gpu.bat,而不是 run_cpu.bat |
添加启动参数
要添加如 --lowvram 之类的参数,用文本编辑器编辑 .bat 文件。找到包含 main.py 的行并添加参数:
.\python_embeded\python.exe -s ComfyUI\main.py --lowvram
常用参数:
| 参数 | 效果 |
|---|---|
--lowvram |
减少 GPU 显存使用(速度较慢) |
--cpu |
完全使用 CPU 运行 |
--listen |
允许局域网内其他设备访问 |
--port 8189 |
更改 Web 服务器端口 |
--highvram |
将模型保留在 VRAM 中(显存足够时更快) |
Wonderful Launcher 文档