Arc Battlemage |
B580, B570, B60, B50 |
Arc Alchemist |
A770, A750, A580, A770M, A730M, A550M, Flex 170 |
Panther Lake |
388H, 386H, 368H, 366H, 358H, 356H, 338H, 336H, 365, 355, 335, 332, 325, 322 |
Lunar Lake |
288V, 268V, 266V, 258V, 256V, 238V, 236V, 228V, 226V |
Arrow Lake-H |
285H, 265H, 255H, 235H, 225H |
Meteor Lake-H |
185H, 165H, 155H, 135H, 125H, 165HL, 155HL, 135HL, 125HL |
更多兼容性信息参考 PyTorch 文档 。
-
仅预置了少量功能性模型,绘图模型还请用户自行下载
-
预装了 40+ 常用自定义节点 【查看详细列表】
-
调整安装好了依赖项(200+ 互相兼容的 Python 包),包括需要编译安装的
insightface、dlib等。 -
预先下载了部分模型文件,包括 Impact Pack 会在初次启动时下载的模型文件等,避免国内用户启动时卡下载。
-
-
使用 GitHub 流水线打包,方便 DIY。用户无需配置 CI/CD,只需在 GitHub 上 Fork 仓库,即可运行打包脚本 【查看操作方法】
-
安装好最新 Intel 显卡驱动
-
在 发布页面 下载整合包文件,或者直接下载链接:
-
models.zip (模型包,只需下载一次,以后升级无需重复下载)
-
打开
.7z.001并解压(建议不要放在太深的目录),打开.zip并解压到同一个目录 -
将 SD 模型放到
ComfyUI\models\checkpoints下-
可随意建立子目录,便于分类
-
-
运行
启动器.bat即可启动
-
启动后程序会自动打开浏览器,也可手动访问: http://localhost:8188/
-
关闭窗口即可退出程序
在 Arc B580 (12G) 测试结果如下:
SD 1.5 |
🆗 很快 |
SDXL |
🆗 很快 |
Playground 2.5 |
🆗 很快 |
Stable Cascade |
🆗 很快 |
FLUX.1 |
❌ 无法加载 |
SD 3.5 |
🆗 正常 |
Lumina 2 |
🆗 正常 |
FLUX.1 Krea |
🆗 正常 |
FLUX.2 [Klein] 9B |
🆗 正常 |
Z-Image Turbo |
🆗 首次运行缓慢;图像尺寸过大易造成假死 |
Qwen Image 2512 |
❌ 无法加载 |
目前已知问题:
-
当前英特尔显卡驱动
101.8626的文生图性能与兼容性均较上一版有所倒退。 -
一旦显存溢出,程序即崩溃或假死,需要重新启动。默认添加参数
--disable-smart-memory后有所缓解。-
勾选“禁用智能内存管理”会使模型运行完即释放显存,不会一直缓存于显存中,但该设置会增加模型加载用时。如果本次程序启动后只使用单一模型,也可取消勾选。
-
尽量避免在一次启动中使用不同大类的模型(比如先运行 SD 3.5 再运行 SDXL)以减少显存泄漏。
-
关闭使用 GPU 加速的程序(比如浏览器)可释放一部分显存。关闭浏览器后程序仍然在运行,可在日志窗口查看生成进度。
-
-
仅就 ComfyUI 文生图而言,XPU 在 Windows 下的性能表现全面不如 Linux,且历经数个版本的 PyTorch 与驱动仍未有明显改善。 相反, 在 Linux 下每个版本都有可见提升,差距渐大。 如打算在 Intel GPU 上重度使用 ComfyUI,建议考虑使用 Linux 系统(优先推荐 Fedora,其次推荐最新版 Ubuntu)。
-
备用脚本文件夹下包含了命令行启动脚本,其内容与启动器等价。如果你是 ComfyUI-Windows-Portable 的老用户,应该会比较熟悉。 -
善加利用 ComfyUI-Manager (ComfyUI 页面右上角 Manager 按钮),用它来管理自定义节点:安装、更新、禁用、卸载。
-
“更新全部”需谨慎,用不到的节点没必要更新,避免 Python 包混乱。
-
-
如果你讨厌程序产生的临时文件、下载缓存等,可以考虑使用 Sandboxie 沙盒来约束它们,同时隔离环境。
-
在使用沙盒时,为了 I/O 性能,建议在“沙盒选项”-“资源访问”中,将程序主目录(
ComfyUI_Windows_portable)配置为“开放”。
-
如果你将模型文件放在不同的分区,或者多个 ComfyUI 实例共用一套模型文件, 可以配置 ComfyUI 加载外部模型目录:
-
将
ComfyUI目录下的extra_model_paths.yaml.example重命名,去掉末尾的.example -
编辑
extra_model_paths.yaml,其中以#开头的部分为注释内容
参考文件(点击展开)
comfyui:
base_path: D:\models\
animatediff_models: animatediff_models
animatediff_motion_lora: animatediff_motion_lora
bert-base-uncased: bert-base-uncased
checkpoints: checkpoints
clip: clip
clip_vision: clip_vision
configs: configs
controlnet: controlnet
depthfm: depthfm
diffusers: diffusers
diffusion_models: |
diffusion_models
unet
embeddings: embeddings
facerestore_models: facerestore_models
gligen: gligen
grounding-dino: grounding-dino
hypernetworks: hypernetworks
insightface: insightface
instantid: instantid
ipadapter: ipadapter
loras: loras
mmdets: mmdets
onnx: onnx
photomaker: photomaker
rembg: rembg
sams: sams
style_models: style_models
text_encoders: text_encoders
ultralytics: ultralytics
unet: unet
upscale_models: upscale_models
vae: vae
vae_approx: vae_approx
ComfyUI 有五处常见的模型文件保存位置:
-
内置的
ComfyUI\models目录 -
通过
extra_model_paths.yaml配置的外部模型目录 -
通过 HuggingFace Hub(HF 官方下载器)下载的模型文件
-
通过 PyTorch 下载的模型文件
-
各节点在
ComfyUI\custom_nodes中原地下载的文件
其中:
-
HF Hub 默认将文件下载到
C:\Users\UserName\.cache\huggingface\hub -
PyTorch 默认将文件下载到
C:\Users\UserName\.cache\torch\hub
本整合包在启动脚本中,将这两者修改到了程序根目录下,分别为 HuggingFaceHub 与 TorchHome 文件夹,以便用户直观管理。如需修改,可在启动脚本中编辑。
工作空间 |
||
性能 |
||
综合 |
||
控制 |
||
视频 |
||
更多 |
||
如安装新节点后遇到兼容性问题,可在 ComfyUI-Manager 中禁用冲突节点。
本仓库使用流水线构建整合包,直接 fork 本仓库即可开始执行 GitHub Workflow。代码库中不含特化配置,也不需要额外配置访问权限。
-
Fork 后,在页面中找到 Actions。
-
找到 Build & Upload Package。
-
比如我代码库里的页面长 这样
-
-
找到 Run Workflow,点击运行。
-
等待执行完毕(20~40分钟)
-
找到仓库的 releases 页面,里面会有刚生成的草稿,即可下载或编辑发布。

