我是 comfyUI 萌新。这篇文章技术干货不多,仅仅是下载和配置过程的记录。
省流:垃圾

最近听说了 Z-image turbo。非常感兴趣,于是打算部署一发。


comfyUI 是一款美观易用的本地部署应用。主要战场是扩散生图模型和视频生成,但同样支持 LLM。

主要特性是可以用图形化方式配置工作流(你可能想到了 scratch。没错,就是类似那样)。

我使用了它来运行 Z-image turbo。


下载非常简单。你需要访问官网,然后下载一个安装包。

有人可能用的是 portable。但我选择了 for Windows 的那个打包好的版本。

下载之后无脑跟随指示。

然后会自动下载和配置 pytorch,大概会下载几个 G(pytorch 本体 2.4GB 左右)。

可能会遇到神秘报错。忽略即可。只要能跑通就不是问题。


之后点击 comfyUI.exe 启动。过程也很简单。

可能会提示你选择一个目录放数据。这个目录建议选择空间大的盘符放,因为以后模型权重也要放在里面。


去官网下载 Z-image turbo 的权重。hugging face 不能直连,所以选择 modelscope

实测这个仓库可用。

进入模型文件一栏,在 split_file 中,分别从 vae、diffusion model 和 text encoder 中挑一个你中意的下载下来。

注意模型的名字标明了量化的程度。text encoder 中,最大的那个无后缀的模型是全精度的。diffusion model 中,BF16 后缀的是全精度的。

量化精度高的模型性能更好。但是会更加消耗显存和算力,所以根据硬件资源量力而行。否则生成速度可能会非常缓慢,并且大量动用虚拟内存,甚至直接崩掉。

下载的模型权重放在你之前选择的那个目录(比如叫做 comfyUI-data)下的 \models\ 中的 \diffusion_models,\text_encoders 和 \vae 中。

注意绝对不是 \ComfyUI\resources\ComfyUI\models。如果你忘记了之前选了哪个目录,你可以进入 comfyUI,点击图标打开菜单,然后选择帮助一栏下的“open folder”,“open model folder”(英文)或者“打开模型文件夹”(中文)。

就是那个目录。


要跑起来还需要一份工作流。所幸工作流不需要自己写,可以找官方的示例。

这个就挺好:https://raw.githubusercontent.com/Comfy-Org/workflow_templates/refs/heads/main/templates/image_z_image_turbo.json

用 comfyUI 打开它。提示少一个 lora,不影响。把右下角那些和 lora 相关的链路删掉即可,因为我们暂时不需要 lora。

然后点击右上角的运行,等待若干时间让它出图。


伏笔回收。你可能会遇到神秘报错。

有可能是显卡驱动太老,和 pytorch 不兼容。这时需要升级驱动,具体流程问 AI 或者搜索。并不复杂。

然后如果你的电脑上已经有了非常新版本的 Python 且设置了环境变量,可能会导致 comfyUI 配置 pytorch 时下的 Python 被遮蔽,而过于新版本的 Python 可能有兼容性问题。

这时需要 pip 重装 pytorch。具体流程也去问 AI。


按理说能出图了。当然,如果硬件过老,可能要等很久。

并且需要把模型权重从硬盘加载进内存和显存,也挺费时间的。

第一次运行之后模型权重会被缓存到内存和缓存里,之后就会快一些。显存占用持续高涨是正常的。

建议至少 16GB 显存的显卡来跑全精度模型。全精度的质量确实比 4 位量化好得多。

6GB 的 1060 也不是不能跑。但你需要忍受必须使用 4 位量化,而且 1024*1024 的图(4 步去噪)需要 3 分钟的现实。跑全精度模型会使得权重溢出到内存和虚拟内存中,并且一张图可能需要十分钟。