语言
适用于 ComfyUI 的大模型自定义节点,支持 DeepSeek、通义千问、GPT 等 OpenAI 兼容 API,可直接搭建对话、翻译、视觉理解和 JSON 工作流。
ComfyUI-LLMs-Toolkit 是一个面向 ComfyUI 的自定义节点包,让你可以在工作流里直接接入 DeepSeek、通义千问、GPT、Moonshot 等主流大语言模型和 OpenAI 兼容接口。
你可以用它搭建基于 LLM 的 ComfyUI 工作流,用于提示词生成、文本翻译、结构化 JSON 输出、多模态图片理解,以及其他文本或视觉自动化场景,而不必本地部署 GPU 大模型。
- 内置模型管理面板 — 在 ComfyUI 菜单栏中可视化管理所有 API 供应商,无需手动编辑配置文件
- 12 家服务商预配置 — 通义千问、DeepSeek、智谱清言、豆包、星火、月之暗面、百川、MiniMax、阶跃星辰、日日新、心流、魔搭
- 智能模型联动 — 选择供应商后,模型下拉框只显示该供应商的模型
- 视觉多模态 — 通过 Image Preprocessor 节点把图片发给支持视觉的大模型
- 不会崩溃 — API 调用失败时返回可读错误信息,工作流不会中断
- 多轮对话记忆 — 开启 Memory 模式即可进行连续对话
- 打开 ComfyUI Manager
- 搜索
ComfyUI-LLMs-Toolkit - 点击 安装 → 重启 ComfyUI
cd ComfyUI/custom_nodes/
git clone https://github.com/ComfyUI-Kelin/ComfyUI-LLMs-Toolkit.git
cd ComfyUI-LLMs-Toolkit
pip install -r requirements.txt安装完成后重启 ComfyUI 即可。
安装完成后,你会在 ComfyUI 顶部菜单栏看到一个 LLMs_Manager 按钮,点击打开设置面板。
- 从左侧选择一个 服务商(比如 DeepSeek)
- 填入你的 API Key(从服务商官网申请)
- 点击 Check API 验证连接 ✅
- 添加或编辑你想用的 模型名称
- 点击 Save,并把 Enable in Nodes 开关打开
- 右键 →
Add Node→🚦ComfyUI_LLMs_Toolkit - 添加一个 OpenAI Compatible Adapter 节点
- 在下拉框中选择你配置好的服务商和模型
- 输入 Prompt,连接输出,点击 执行!
| 服务商 | 官网 | 免费额度 |
|---|---|---|
| DeepSeek | platform.deepseek.com | ¥500 |
| 通义千问 | dashscope.aliyun.com | 每月 100 万 tokens |
| 智谱清言 | open.bigmodel.cn | 每月 500 万 tokens |
| 月之暗面 | platform.moonshot.cn | 免费试用 |
| OpenAI | platform.openai.com | $5 |
| 节点 | 用途 |
|---|---|
| OpenAI Compatible Adapter | 核心节点 — 向任意 OpenAI 兼容大模型发送 Prompt,获得文本回复。支持 System Prompt、多轮记忆、图片输入。 |
| LLMs Loader | 辅助配置节点,输出供应商配置供高级场景使用。 |
| LLM Translator | 快速翻译节点,一步完成文本翻译。 |
| 节点 | 用途 |
|---|---|
| Image Preprocessor | 将 ComfyUI 图片转换为大模型可读的格式。连接到 Adapter 节点的 prep_img 输入即可。 |
| 节点 | 用途 |
|---|---|
| JSON Builder (Simple / Medium / Large) | 构建包含 1、5 或 10 个键值对的结构化 JSON。 |
| JSON Combine | 合并多个 JSON 对象。 |
| JSON Extractor | 从 JSON 字符串中按路径提取值。 |
| JSON Fixer | 自动修复大模型有时输出的格式错误的 JSON。 |
| 节点 | 用途 |
|---|---|
| String Template | 用变量填充模板字符串,如 "你好 {name}!" → "你好 Alice!" |
提示 "API Key is missing" 怎么办?
请确认:
- 打开了 LLMs_Manager 面板
- 选择了对应服务商并填入了 API Key
- 点击了 Save
- 将 Enable in Nodes 开关打开
可以用 Ollama 等本地模型吗?
可以!在 LLMs_Manager 中点击 + Custom Provider,将 Base URL 设为本地地址(如 http://localhost:11434/v1),添加模型名称即可。任何 OpenAI 兼容的 API 都可以使用。
模型下拉框显示不对
在 Provider Manager 中修改配置后,请 刷新浏览器(Cmd+R / Ctrl+R)。模型列表会根据选择的服务商自动更新。
排障文档在哪里?
请查看 docs/troubleshooting.md,包含依赖冲突、模型下拉异常、本地端点配置等常见问题。
你的 API Key 以明文形式保存在本地的 config/providers.json 文件中。该文件默认已被 .gitignore 排除,所以推送代码时不会泄漏。但请注意不要手动将此文件分享给他人。
- 同步包版本号与当前发布版本线(
pyproject.toml) - 新增
docs/troubleshooting.md,集中说明依赖/供应商配置常见问题
- 内置 Provider Manager 可视化管理面板
- 模型下拉框按供应商动态过滤
- 自定义弹窗替代浏览器原生 prompt
- 精简节点接口(移除冗余输入输出参数)
- DeepSeek 深度思考过程提取
- o1/o3 模型角色兼容
- 统一 API 客户端(智能重试机制)
- 优雅降级(不再崩溃工作流)
- 修复多轮记忆和 Token 显示 Bug
GNU Affero General Public License v3.0 (AGPL-3.0) — 免费使用、修改和分发。如果你修改或在网络服务中使用了本代码,必须基于相同协议开源你的完整源代码。
