Nunchaku FLUX.1-dev实战手册ComfyUI中工作流导入/修改/保存全流程你是不是在ComfyUI里看到别人分享的酷炫工作流自己却不知道怎么用或者好不容易调好了一套参数想保存下来下次再用结果发现操作起来一头雾水别担心今天我就带你彻底搞懂ComfyUI里工作流的“导入、修改、保存”这一套完整流程。咱们就以最近很火的Nunchaku FLUX.1-dev模型为例手把手教你从零开始把别人的工作流变成你自己的生产力工具。这篇文章不讲复杂的理论只讲最实用的操作。看完之后你就能轻松玩转ComfyUI的工作流不管是套用模板还是自定义创作都能得心应手。1. 准备工作把Nunchaku FLUX.1-dev环境搭起来在开始折腾工作流之前咱们得先把“舞台”搭好。Nunchaku FLUX.1-dev是个对硬件有点要求的模型所以第一步是确保你的电脑能跑得动。1.1 检查你的硬件和软件首先看看你的显卡。Nunchaku FLUX.1-dev推荐使用24GB以上显存的NVIDIA显卡。如果你的显卡显存不够大也不用担心后面我会告诉你怎么选择占用显存更少的版本。软件方面需要准备三样东西Python 3.10或更高版本Git用来下载代码对应你显卡和系统的PyTorch版本比如torch 2.7、2.8或2.9还有一个工具需要提前安装叫huggingface_hub它是用来下载模型文件的。安装命令很简单pip install --upgrade huggingface_hub1.2 安装Nunchaku插件和ComfyUI现在来安装核心的Nunchaku插件。我给你两种方法选一个你觉得顺手的就行。方法一用Comfy-CLI工具最简单如果你喜欢一键搞定这个方法最适合你# 先安装ComfyUI的命令行工具 pip install comfy-cli # 安装ComfyUI本体如果已经装过了就跳过这步 comfy install # 安装Nunchaku插件 comfy noderegistry-install ComfyUI-nunchaku # 把插件移到正确的位置 mv ComfyUI-nunchaku ComfyUI/custom_nodes/nunchaku_nodes方法二手动安装更灵活如果你想自己控制安装的每个步骤可以用这个方法# 1. 下载ComfyUI git clone https://github.com/comfyanonymous/ComfyUI.git cd ComfyUI pip install -r requirements.txt # 2. 下载Nunchaku插件 cd custom_nodes git clone https://github.com/mit-han-lab/ComfyUI-nunchaku nunchaku_nodes插件装好后还需要安装Nunchaku的后端。从v0.3.2版本开始这个过程变得很简单——插件里自带了一个install_wheel.json文件可以一键安装或更新所需的后端包。2. 下载模型文件准备好“颜料”和“画布”插件装好了就像有了画画的工具但现在还没有颜料和画布。接下来咱们要下载模型文件这是生成图片的“原材料”。2.1 配置工作流目录为了让ComfyUI能识别Nunchaku的工作流需要先创建对应的目录# 进入ComfyUI的根目录 cd ComfyUI # 创建工作流存放的目录如果不存在的话 mkdir -p user/default/example_workflows # 把Nunchaku自带的示例工作流复制过去 cp custom_nodes/nunchaku_nodes/example_workflows/* user/default/example_workflows/2.2 下载基础模型文件Nunchaku FLUX.1-dev需要两个基础模型才能正常工作文本编码器和VAE模型。文本编码器的作用是把你的文字描述转换成模型能理解的格式VAE模型则负责把模型生成的中间结果变成最终的图片。这两个模型都需要下载# 下载文本编码器模型放到models/text_encoders目录 hf download comfyanonymous/flux_text_encoders clip_l.safetensors --local-dir models/text_encoders hf download comfyanonymous/flux_text_encoders t5xxl_fp16.safetensors --local-dir models/text_encoders # 下载VAE模型放到models/vae目录 hf download black-forest-labs/FLUX.1-schnell ae.safetensors --local-dir models/vae如果你已经在本地下好了这些模型文件也可以直接创建软链接。比如在我的电脑上模型文件的实际存放路径是这样的# 文本编码器模型 ~/ComfyUI/models/text_encoders/ clip_l.safetensors - /root/.cache/huggingface/FLUX.1-dev/text_encoders/clip_l.safetensors t5xxl_fp16.safetensors - /root/.cache/huggingface/FLUX.1-dev/text_encoders/t5xxl_fp16.safetensors # VAE模型 ~/ComfyUI/models/vae/ ae.safetensors - /root/.cache/huggingface/FLUX.1-dev/vae/ae.safetensors2.3 下载核心的FLUX.1-dev模型这是最重要的部分——Nunchaku FLUX.1-dev主模型。根据你的显卡类型需要选择不同的版本Blackwell架构显卡比如RTX 50系列用FP4版本其他NVIDIA显卡用INT4版本显存不够大可以考虑FP8量化版显存占用会小很多以INT4版本为例下载命令是这样的hf download nunchaku-tech/nunchaku-flux.1-dev svdq-int4_r32-flux.1-dev.safetensors --local-dir models/unet/下载后模型会放在models/unet/目录下。同样如果你已经下载了模型文件可以查看一下路径~/ComfyUI/models/unet/ svdq-int4_r32-flux.1-dev.safetensors - /root/ai-models/comfyanonymous/unet/svdq-int4_r32-flux.1-dev.safetensors2.4 可选下载LoRA模型增强效果LoRA模型就像滤镜可以让生成的图片有特定的风格或效果。Nunchaku FLUX.1-dev支持加载多个LoRA常见的比如FLUX.1-Turbo-Alpha加速生成和Ghibsky Illustration吉卜力动画风格。这些模型下载后放在models/loras/目录。在我的设置里目录结构是这样的~/ComfyUI/models/loras/ diffusion_pytorch_model.safetensors - /root/ai-models/comfyanonymous/diffusion/diffusion_pytorch_model.safetensors lora_v2.safetensors - /root/ai-models/comfyanonymous/lora/lora_v2.safetensors3. 工作流导入把别人的模板变成你的起点环境准备好了模型也下载了现在终于可以进入正题——学习怎么导入和使用工作流了。3.1 启动ComfyUI并打开网页界面首先启动ComfyUI。在ComfyUI的根目录下运行python main.py启动成功后用浏览器打开显示的本地地址通常是http://127.0.0.1:8188就能看到ComfyUI的网页界面了。3.2 导入Nunchaku FLUX.1-dev工作流在ComfyUI的网页界面里点击右上角的“Load”按钮然后找到我们之前复制到user/default/example_workflows/目录的工作流文件。对于Nunchaku FLUX.1-dev我推荐使用nunchaku-flux.1-dev.json这个工作流。它有几个优点专门为FLUX.1-dev模型优化过支持加载多个LoRA模型文生图的效果最好加载成功后你会看到界面上出现了一堆连接好的节点。别被这个复杂的界面吓到其实大部分设置都已经配好了你只需要关注几个关键的地方。4. 工作流修改按你的需求定制化导入工作流只是第一步真正有意思的是按照你的想法来修改它。咱们来看看怎么调整这个工作流。4.1 理解工作流的基本结构当你加载nunchaku-flux.1-dev.json后界面上会显示完整的节点连接。主要包含这几个部分提示词输入这里输入你想要生成的图片描述模型加载已经配置好了FLUX.1-dev模型LoRA控制可以加载和调整多个LoRA的权重采样器设置控制生成过程的步数、方法等参数图像输出最终生成图片的预览和保存4.2 修改提示词和参数找到工作流中的提示词输入框这里是你和AI“沟通”的地方。FLUX.1-dev模型对英文提示词的支持更好所以建议用英文描述。比如你可以输入A beautiful landscape with mountains and lakes, ultra HD, realistic, 8K除了提示词你还可以调整这些参数推理步数一般20-50步步数越多细节越丰富但生成时间也越长分辨率根据你的显存选择显存不够可以降低分辨率LoRA权重如果加载了LoRA可以调整它的影响强度采样器不同的采样器会影响生成效果和速度4.3 添加或删除节点如果你想在工作流中加入新的功能比如图片放大、人脸修复等可以右键点击空白处选择“Add Node”然后从列表中找到需要的节点。删除节点更简单选中节点后按Delete键就行。但要注意节点之间的连接关系删除一个节点可能会断开整个工作流。4.4 调整节点连接有时候你可能想改变数据流动的路径。比如你想在生成图片后先进行人脸修复再放大分辨率。这时候就需要调整节点之间的连接。在ComfyUI里连接节点很简单点击一个节点的输出端口右边的小圆点拖到另一个节点的输入端口左边的小圆点上。断开连接也很容易点击连接线然后按Delete键。5. 工作流保存把你的创作成果存下来调好了一个满意的工作流当然要保存下来不然下次还得重新调一遍。ComfyUI提供了几种保存方式。5.1 保存完整工作流这是最常用的保存方式。点击界面右上角的“Save”按钮给工作流起个名字比如my_flux_landscape_workflow.json然后保存。保存的文件里包含了所有节点的配置、连接关系、参数设置。下次想用的时候直接“Load”这个文件就行一切都会恢复到保存时的状态。5.2 保存为模板如果你创建了一个特别有用的工作流结构可以把它保存为模板。这样以后新建工作流时可以直接从模板开始省去了从头搭建的麻烦。保存模板的方法和保存工作流类似只是建议把模板文件放在专门的目录里方便管理。5.3 导出图片工作流ComfyUI还有一个很实用的功能把生成的图片和工作流信息一起保存。这样当你看到一张喜欢的图片时不仅能保存图片本身还能保存生成这张图片的所有设置。在输出节点上勾选“Save workflow with image”选项这样保存图片时就会同时生成一个同名的JSON文件。6. 运行和调试让工作流真正跑起来修改和保存都学会了现在来看看怎么实际运行工作流以及遇到问题怎么解决。6.1 运行工作流生成图片调整好所有参数后点击界面上的“Queue Prompt”按钮ComfyUI就会开始处理你的工作流。你会看到节点一个接一个地亮起表示正在执行。生成完成后图片会显示在预览区域。如果对结果不满意可以调整提示词或参数然后再次运行。ComfyUI支持实时预览你可以一边调整一边看效果变化。6.2 常见问题排查在使用工作流的过程中可能会遇到一些问题。这里分享几个我经常遇到的坑和解决方法问题一加载工作流时提示节点缺失这是因为工作流里用到了某些自定义节点但你的ComfyUI里没有安装。解决方法是通过ComfyUI-Manager安装缺失的节点。问题二生成图片时显存不足FLUX.1-dev的FP16版本需要约33GB显存如果不够可以使用INT4或FP8量化版模型降低生成图片的分辨率减少批处理数量问题三生成效果不理想如果图片质量不好可以尝试增加推理步数特别是关闭了FLUX.1-Turbo-AlphaLoRA时步数不能低于20调整提示词描述更详细一些尝试不同的采样器问题四工作流运行很慢生成速度慢可能是由于推理步数设置太高分辨率太大同时加载了太多LoRA7. 高级技巧让工作流更高效掌握了基础操作后咱们再来看看一些能提升效率的高级技巧。7.1 使用工作流变量ComfyUI支持在工作流中使用变量这样你可以快速切换不同的设置。比如你可以创建一个“分辨率”变量然后快速在512x512、768x768、1024x1024之间切换而不用手动修改每个相关节点。7.2 创建自定义节点组如果你经常使用某几个节点的组合可以把它们打包成一个自定义节点组。这样下次使用时直接拖入这个组就行不用再一个个连接节点。创建节点组的方法选中要打包的节点右键选择“Group”然后给这个组起个名字。7.3 利用工作流历史ComfyUI会自动保存工作流的历史版本。如果你不小心改坏了工作流或者想回到之前的某个状态可以点击“History”查看和恢复历史版本。7.4 分享和导入社区工作流ComfyUI有一个活跃的社区很多用户会分享自己创建的工作流。你可以在Civitai、Hugging Face等平台找到各种有趣的工作流。导入社区工作流的方法和导入本地工作流一样只是文件来源不同。但要注意社区工作流可能依赖特定的自定义节点导入后可能需要额外安装。8. 实战案例创建一个完整的文生图工作流理论讲得差不多了现在咱们通过一个实际案例把学到的知识用起来。8.1 案例目标我们要创建一个专门生成风景图片的工作流要求基于Nunchaku FLUX.1-dev模型支持快速切换不同风格的LoRA自动保存生成结果到指定文件夹可以批量生成不同分辨率的图片8.2 搭建步骤第一步导入基础工作流先从nunchaku-flux.1-dev.json开始这是我们的基础模板。第二步添加风格切换功能在LoRA加载节点后面添加一个“Lora Loader”节点。这样我们可以加载多个LoRA并通过调整权重快速切换风格。比如我可以准备三个LoRA一个用于写实风格一个用于油画风格一个用于动漫风格第三步设置自动保存找到输出节点右键选择“Convert to Image Save”。在设置中指定保存路径和文件名格式。我通常会用时间戳提示词关键词作为文件名这样方便后期整理。第四步添加分辨率控制在采样器节点前添加一个“Empty Latent Image”节点。这个节点可以设置生成图片的宽高。为了快速切换不同分辨率我创建了几个预设按钮512x512、768x768、1024x1024。第五步测试和优化搭建完成后用不同的提示词和参数测试工作流。根据测试结果微调各个节点的参数直到达到满意的效果。8.3 保存和分享工作流调试完成后别忘了保存。我建议保存两个版本一个带所有设置的完整版本scenery_workflow_complete.json一个简化版只保留核心节点scenery_workflow_simple.json如果你想分享给朋友记得提醒他们需要安装Nunchaku插件和下载对应的模型文件。9. 关键注意事项和避坑指南在结束之前我想分享几个特别重要的注意事项这些是我在实际使用中总结出来的经验。9.1 模型文件存放位置不能错这是最容易出错的地方。FLUX.1-dev的各个模型文件必须放在正确的目录主模型models/unet/LoRA模型models/loras/文本编码器models/text_encoders/VAE模型models/vae/放错位置会导致ComfyUI找不到模型工作流无法运行。9.2 显卡和模型版本要匹配不同架构的显卡对模型版本有要求Blackwell显卡如RTX 50系列只能用FP4版本其他NVIDIA显卡优先用INT4版本显存不够的可以考虑FP8版本用错版本可能会导致生成失败或者效果很差。9.3 推理步数设置要合理如果你关闭了FLUX.1-Turbo-Alpha这个加速LoRA那么推理步数至少要设置到20步以上。步数太少的话生成的图片质量会明显下降。9.4 及时更新插件和模型Nunchaku和ComfyUI都在不断更新新版本通常会修复bug、提升性能。建议定期检查更新但要注意更新前最好备份你的工作流和设置。9.5 工作流兼容性问题从社区下载的工作流可能是在不同版本的ComfyUI或插件下创建的。如果导入后出现问题可以尝试更新所有插件到最新版本检查节点是否缺失手动重新连接出错的节点10. 总结通过这篇文章你应该已经掌握了在ComfyUI中使用Nunchaku FLUX.1-dev模型的完整流程。从环境准备、模型下载到工作流的导入、修改、保存每个步骤我都尽量讲得详细实用。记住几个关键点准备工作要做好硬件、软件、模型文件一个都不能少工作流是活的不要害怕修改多尝试不同的配置及时保存成果调好的工作流一定要保存下来学会排查问题遇到问题先检查模型路径、节点连接这些基础设置ComfyUI的工作流系统看起来很复杂但一旦掌握了基本逻辑你会发现它非常强大和灵活。你可以像搭积木一样把不同的功能组合起来创造出独一无二的AI绘画流程。最重要的是多动手实践。刚开始可能会遇到各种问题但每解决一个问题你就对这个工具的理解更深一层。慢慢地你会从“跟着教程做”变成“创造自己的教程”。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。