安装后
下载模型
在哪里找到以及如何安装 ComfyUI 的 AI 模型。
ComfyUI 需要 AI 模型文件来生成图片和视频。本指南介绍从哪里下载以及如何放置这些模型。
模型类型
| 类型 | 文件夹 | 用途 | 文件大小 |
|---|---|---|---|
| Checkpoint | models/checkpoints/ |
主要的生成模型 | 2-12 GB |
| LoRA | models/loras/ |
微调的风格/概念附加模型 | 10-200 MB |
| VAE | models/vae/ |
图像编码器/解码器 | 300-800 MB |
| ControlNet | models/controlnet/ |
使用参考图像引导生成 | 700 MB-1.5 GB |
| Upscaler | models/upscale_models/ |
提高图像分辨率 | 20-200 MB |
| CLIP | models/clip/ |
文本编码器 | 200 MB-2 GB |
| UNET | models/diffusion_models/ |
核心扩散模型(Flux 等) | 5-24 GB |
下载地址
Hugging Face
最大的开源模型平台。大多数官方模型都在这里发布。
- 浏览:huggingface.co/models
- 按名称搜索模型并下载
.safetensors文件
CivitAI
社区驱动的平台,拥有数千个微调模型、LoRA 和 embeddings。
- 浏览:civitai.com
- 按 Type(Checkpoint、LoRA 等)和 Base Model(SD 1.5、SDXL、Flux)筛选
推荐入门模型
图像生成
| 模型 | 基础架构 | 所需 VRAM | 最适合 |
|---|---|---|---|
| Stable Diffusion 1.5 | SD 1.5 | 4 GB+ | 快速生成,插件生态丰富 |
| RealVisXL | SDXL | 8 GB+ | 真实感图像 |
| Flux Schnell | Flux | 12 GB+ | 快速、高质量生成 |
| Flux Dev | Flux | 12 GB+ | 更高质量,速度较慢 |
视频生成
| 模型 | 所需 VRAM | 备注 |
|---|---|---|
| Wan 2.1 | 12 GB+(量化版) | 文生视频和图生视频 |
| HunyuanVideo | 16 GB+ | 高质量视频生成 |
| LTX-Video | 8 GB+ | 轻量级视频模型 |
安装方法
- 下载
.safetensors文件(尽量避免.ckpt文件 —.safetensors更安全) - 将文件放入
models/下对应的子文件夹中:
ComfyUI/
└── models/
├── checkpoints/ ← 主模型放这里
├── loras/ ← LoRA 文件放这里
├── vae/ ← VAE 文件放这里
├── controlnet/ ← ControlNet 模型放这里
└── upscale_models/ ← 超分辨率模型放这里
- 重启 ComfyUI(或点击模型下拉菜单中的 Refresh)
使用 GGUF 量化模型
如果你的 VRAM 有限,可以使用大型模型(如 Flux)的 GGUF 量化版本。这些模型使用更少的显存,质量损失很小。
量化模型需要安装 ComfyUI-GGUF 自定义节点:
- 安装 ComfyUI-GGUF 节点(参见安装自定义节点)
- 下载模型的 GGUF 版本(例如
flux1-schnell-Q4_K_S.gguf) - 将其放入
models/diffusion_models/ - 使用 GGUF Loader 节点替代常规的 Load Checkpoint 节点
小贴士
.safetensors与.ckpt— 始终优先使用.safetensors。.ckpt格式可能包含可执行代码,存在安全风险。- 检查基础模型 — 基于 SD 1.5 训练的 LoRA 无法与 SDXL checkpoint 一起使用。务必确保基础模型匹配。
- 整理子文件夹 — 你可以在
models/checkpoints/内创建子文件夹(例如models/checkpoints/sdxl/)。ComfyUI 会自动扫描子目录。 - 共享模型 — 如果你同时使用 A1111 或 Forge,可以配置
extra_model_paths.yaml来共享模型文件。参见便携包设置。 - 检查你的 VRAM — 不确定模型能否在你的 GPU 上运行?参见系统要求和 GPU 兼容性获取 VRAM 指导。
Wonderful Launcher 文档