修复Apple Silicon上Flux生成极慢问题 - 完整指南
通过内存设置、后端配置和优化解决Apple Silicon上每张图片需要数小时的极慢Flux生成
如果您的M系列Mac生成单张Flux图片需要30分钟到1小时,那么您的设置存在根本性问题。这是典型的Flux慢Mac问题。Apple Silicon应该在30到90秒内生成Flux图片,具体取决于您的芯片型号和分辨率——而不是几个小时。您正在经历的极端Flux慢Mac性能几乎可以肯定源于两个关键问题之一:PyTorch回退到CPU执行而不是使用Metal GPU,或者严重的内存压力导致持续的交换抖动。一旦您理解正在发生什么以及如何诊断,这两个Flux慢Mac问题都是可以修复的。
本综合指南涵盖了修复Apple Silicon上Flux慢Mac问题的各个方面。
本指南将指导您识别您遇到的问题、实施适当的修复,以及优化Mac设置以实现Apple Silicon实际能够提供的性能。虽然Mac性能无法匹配同等价格的NVIDIA硬件,但您应该获得合理的生成时间,使本地Flux生成对于实验和创意工作变得实用。
理解为什么Apple Silicon Flux会极慢
要修复Flux慢Mac问题,您首先需要了解导致数小时生成时间的两种情况,因为Flux慢Mac问题的修复方法完全不同。
第一种情况是CPU回退。当PyTorch的Metal Performance Shaders (MPS)后端无法正常工作时,PyTorch会悄悄地回退到CPU执行。基于CPU的神经网络推理比GPU执行慢约50到100倍,将60秒的生成变成60分钟的煎熬。这种情况没有明显的错误消息——您的生成只是需要永远,而CPU使用率达到最大,GPU完全闲置。
多种条件会导致CPU回退。您可能安装了通过Rosetta翻译运行的x86版本Python,而不是原生ARM Python。您的PyTorch安装可能缺乏MPS支持,可能是因为它是旧版本或安装不正确。模型中的某些操作可能没有MPS实现,导致整个计算回退到CPU。或者macOS本身可能存在MPS问题,系统更新可以解决。
第二种情况是内存抖动。Apple Silicon使用CPU和GPU之间共享的统一内存,这消除了显式GPU VRAM管理的需要,但产生了另一个问题:当总内存需求超过可用RAM时,macOS会将数据分页到SSD交换存储。对于像Flux这样需要保持大型张量驻留的内存密集型模型,持续向交换分页会造成严重的速度下降,因为系统花更多时间移动数据而不是计算。
内存抖动主要影响具有8GB或16GB统一内存的Mac。Flux的全精度模型仅权重就需要约23GB,推理还会在此基础上添加大量激活内存。即使使用GGUF量化显著降低内存需求,运行Flux的8GB Mac也会严重抖动。如果没有其他东西消耗内存,16GB Mac可以使用量化模型工作,但浏览器标签、后台进程和macOS本身会占用可用空间。
好消息是这两个问题都是可诊断和可修复的。让我们从诊断开始。
诊断CPU回退与内存抖动
在尝试Flux慢Mac修复之前,确定您遇到的是哪个问题。Flux慢Mac问题的诊断方法不同,应用错误的修复会浪费时间。
对于Mac上ComfyUI的新用户,我们的必备节点指南涵盖了适用于Mac和其他平台的基础概念。
要检查CPU回退,在开始生成之前打开活动监视器,观察过程中的CPU和GPU使用率。在正确配置的系统上,GPU使用率应该飙升,而各个CPU核心保持相对平静(一些CPU活动对于数据准备是正常的)。如果您看到所有CPU核心都达到100%最大值,而GPU使用率在整个生成过程中保持接近零,您就遇到了CPU回退。
您也可以直接在Python中验证MPS可用性。打开终端并运行:
python3 -c "import torch; print('MPS可用:', torch.backends.mps.is_available()); print('MPS已构建:', torch.backends.mps.is_built())"
两个值都应该打印True。如果MPS不可用,您的PyTorch安装需要修复,然后其他任何东西才能帮助。
检查您运行的是原生ARM Python,而不是通过Rosetta的x86:
python3 -c "import platform; print('架构:', platform.machine())"
这应该打印"arm64"。如果打印"x86_64",您运行的是完全错误的Python架构,MPS无法工作。
要诊断内存抖动,在生成期间观察活动监视器的内存标签。查看内存压力图和已使用交换值。绿色内存压力和最小交换使用表示足够的内存。生成期间交换增长的黄色或红色内存压力表示抖动。您还可以观察活动监视器中的磁盘活动——在应该是计算绑定的任务期间的大量磁盘活动表明交换活动。
另一个诊断是生成时间进展。使用CPU回退时,生成以缓慢但稳定的速度进行——每个步骤需要很长时间,但完成百分比一致前进。使用内存抖动时,您会看到不规则的进展,某些步骤相对较快完成,而其他步骤在系统交换时停滞较长时间。
如果您同时看到高CPU和显著的交换活动,您可能两个问题都有——CPU回退导致低效的计算模式,触发更多内存压力。首先修复CPU回退,然后在需要时解决内存问题。
修复CPU回退问题
如果您确定PyTorch回退到CPU而不是使用MPS,以下是如何修复这个Flux慢Mac问题。CPU回退是Flux慢Mac性能最常见的原因。
首先,确保您安装了原生ARM Python。最简单的方法是通过Homebrew安装Python,它会在Apple Silicon Mac上自动提供ARM版本:
# 如果没有Homebrew则安装
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
# 安装Python
brew install python@3.11
如果您通过其他方式安装了Python,如上所示验证架构,如果是x86则重新安装。
接下来,创建一个干净的虚拟环境以避免之前损坏安装的污染:
python3 -m venv ~/flux_env
source ~/flux_env/bin/activate
现在安装带有MPS支持的PyTorch。Mac的官方PyTorch安装在最近版本中默认包含MPS支持:
pip install --upgrade pip
pip install torch torchvision torchaudio
验证安装是否成功:
python -c "import torch; print('PyTorch版本:', torch.__version__); print('MPS可用:', torch.backends.mps.is_available())"
如果MPS仍然不可用,您可能需要更新macOS。MPS支持通过macOS更新得到了显著改进,某些操作需要最新版本。更新到Mac可用的最新macOS版本。
某些设置受益于启用MPS回退模式,这允许没有原生MPS实现的操作回退到CPU,同时仍然对其他所有内容使用MPS。这比完全CPU回退要好:
export PYTORCH_ENABLE_MPS_FALLBACK=1
将此添加到您的shell配置文件(默认macOS shell为~/.zshrc)使其永久生效。
CPU回退解决后,通过在观察活动监视器的同时生成图像来验证修复是否有效。您应该看到GPU使用率上升,而CPU使用率保持适中。生成时间应该从几小时降到典型设置下不到两分钟。
修复内存压力问题
如果您的Mac具有足够的MPS功能,但内存抖动导致Flux慢Mac性能,您需要减少内存需求或增加可用内存。内存压力是Flux慢Mac问题的第二大主要原因。
最有影响的变化是使用量化模型。GGUF量化在保持合理质量的同时大幅减少内存需求。Q8_0量化Flux模型需要约12GB,而全精度需要23GB。Q4_K_M量化将此降低到约6GB,使Flux即使在8GB Mac上也可以访问,但需要小心。
从提供这些模型的HuggingFace仓库下载GGUF量化Flux模型。安装ComfyUI-GGUF节点包来加载它们:
cd ~/ComfyUI/custom_nodes
git clone https://github.com/city96/ComfyUI-GGUF
pip install -r ComfyUI-GGUF/requirements.txt
然后使用GGUF加载器节点而不是标准检查点加载器。
如果您有16GB或更大的Mac并想使用全精度模型,在生成前最大化可用内存。完全关闭浏览器——带有多个标签的Chrome可以轻松消耗4-8GB。退出Slack、Discord、Spotify和其他后台应用程序。检查活动监视器中消耗大量内存的进程并关闭所有不必要的。
ComfyUI的内存管理标志在Mac上非常重要。使用--highvram标志:
python main.py --highvram
这告诉ComfyUI将模型保持在内存中而不是移动它们。在统一内存系统上,--lowvram执行的卸载没有任何好处(没有单独的GPU VRAM可以节省),同时增加了不必要的数据移动开销。
不要在Mac上使用--lowvram或--medvram。这些标志是为具有有限VRAM的独立GPU设计的,在计算期间将模型权重卸载到系统RAM以节省VRAM为代价增加传输开销。使用统一内存,权重已经在GPU访问的同一内存池中,因此卸载只会增加传输延迟而没有好处。
对于运行量化模型的内存有限的Mac,考虑降低生成分辨率。在768x768而不是1024x1024生成会大大减少推理期间的激活内存。如果需要,您可以之后放大结果。
优化Apple Silicon的ComfyUI配置
除了修复核心问题外,几个配置选择可以优化Apple Silicon性能。
使用原生注意力而不是xFormers。xFormers需要CUDA,在Mac上根本不工作——不要费心尝试安装它。ComfyUI的原生注意力实现与MPS一起工作并提供合理的性能。
选择适当的精度。FP16(半精度)使用FP32的一半内存,通常是Mac生成的正确选择。大多数模型在FP16下工作正常,内存节省很大。BF16支持因macOS版本和芯片代而异——通常在具有最新macOS的M2及更高版本上支持,但FP16是安全的选择。
启动ComfyUI时配置这些设置:
python main.py --highvram --force-fp16
--force-fp16标志确保操作在可能的情况下使用半精度。
在进行配置更改后仔细监视您的第一次生成。新ComfyUI启动的第一次生成包括模型加载和Metal着色器编译开销,使其比后续生成更慢。为准确的性能评估计时第二或第三次生成。
如果您使用ComfyUI Manager,请注意安装许多自定义节点会增加内存消耗,可能会对内存有限的系统造成压力。只安装您实际使用的节点。
现实的性能期望
通过正确的配置和解决Flux慢Mac问题,以下是您可以从不同的Apple Silicon芯片在1024x1024分辨率、20步运行Flux时期望的:
M1/M2基础芯片(8核GPU,8-16GB内存): 这些芯片可以运行Flux但处于能力边缘。使用Q4量化和仔细的内存管理,标准生成预计60-90秒。8GB版本需要激进的量化并以较小的分辨率生成以避免抖动。
M1/M2/M3 Pro芯片(14-16核GPU,16-32GB内存): 这是Mac Flux生成的最佳点。使用18GB+内存版本,您可以舒适地运行Q8量化模型。标准生成预计45-70秒,更高内存配置避免任何交换压力时会更快。
M3/M4 Pro和Max芯片(最高40核GPU,最高128GB内存): 高端芯片提供最佳Mac性能。配备64GB+内存的M3 Max和M4 Max可以在没有内存压力的情况下运行全精度Flux。标准生成预计30-50秒,配置最好的Max芯片接近30秒。
与NVIDIA比较: 即使是最快的M4 Max也比中端RTX 4070慢,比RTX 4090慢得多。RTX 4090在类似设置下8-12秒内生成Flux图片。如果原始性能是您的优先事项,而且您不受Mac生态系统约束,NVIDIA提供每美元更好的性能。如果您出于其他原因需要在Mac上工作并接受性能权衡,Mac Flux生成是有意义的。
这些期望假设具有适合您内存的适当量化的正确配置系统。如果在应用本指南中的修复后您仍看到比这些范围差得多的时间,则有其他问题——重新访问诊断步骤。
高级优化
一旦您正确运行了基础知识,几种高级技术可以挤出额外的性能。
MLX是Apple专门为Apple Silicon优化的机器学习框架。移植到MLX的模型可以比PyTorch MPS实现运行更快,因为MLX是从头为Apple硬件设计的。MLX生态系统正在增长,Flux实现已经存在。如果您对设置MLX环境感到舒适,值得测试它是否为您的用例提供比PyTorch MPS更好的性能。
内存管理调优可以帮助受限系统。设置环境变量PYTORCH_MPS_HIGH_WATERMARK_RATIO=0.0告诉PyTorch不要缓存内存分配,这可以以更多分配开销为代价减少峰值内存使用。这用一些性能换取在较少内存系统上运行的能力:
export PYTORCH_MPS_HIGH_WATERMARK_RATIO=0.0
如果您定期运行ComfyUI,配置自动内存清理。ComfyUI可以为方便缓存之前生成的数据,但这会消耗内存。UI有选项在使用后自动卸载模型,这会在生成会话之间为其他应用程序释放内存。
考虑热环境。持续的生成工作负载会加热芯片,Apple Silicon在热时会节流。确保良好的通风,避免在MacBook上堆积东西,并考虑为长时间生成会话使用冷却支架。当热节流开始时,性能会明显下降。
常见问题
为什么我的Flux生成以前工作正常突然变慢了?
macOS更新有时会暂时破坏MPS功能,需要PyTorch更新来恢复兼容性。在任何macOS更新后,验证MPS仍然可用,如果需要则更新PyTorch。还要检查macOS更新是否增加了后台内存消耗,对受限系统造成新的压力。
Mac上Flux需要8GB RAM够吗?
勉强够,而且只有在激进的Q4量化和没有其他东西运行的情况下。即使有量化,由于内存压力,生成也会很慢。16GB是现实的最小值,24GB+提供舒适的余地。如果您购买新Mac用于AI工作,尽可能多买内存——以后无法升级。
我应该为ComfyUI使用Rosetta吗?
永远不要。Rosetta翻译增加了开销并完全阻止MPS工作。始终使用原生ARM Python和包。如果某些东西只能通过Rosetta工作,找到ARM替代品。
我的第一次生成很慢但后续很快——这正常吗?
是的。第一次生成包括模型加载和Metal着色器编译,两者都会为后续运行缓存。计时第二或第三次生成以获得代表性的性能评估。
未来的macOS版本会让Flux更快吗?
可能会,逐步地。Apple继续在每个版本中改进MPS,PyTorch也在改进其MPS后端。更新也可能为流行模型带来更好的MLX支持。但是,不要期望戏剧性的加速——硬件是根本限制。
我可以使用外部GPU来提高性能吗?
不能。macOS放弃了Apple Silicon Mac的eGPU支持,即使在支持时也不太好。您的内部GPU就是您拥有的。如果您需要更多GPU能力,考虑云服务或专用NVIDIA系统。
为什么我的M3 Max比报告的基准慢?
验证您在长时间生成期间没有遇到热节流。检查内存配置——比较可能使用全精度而您使用量化,或反过来。还要确保您在比较相同的东西:相同的模型、分辨率、步数和设置。
MLX比PyTorch MPS对Flux更好吗?
有时是,有时不是。MLX对于具有良好MLX实现的模型可以更快,但生态系统比PyTorch小。如果有时间就两者都测试,但PyTorch MPS目前是更成熟和文档更好的选项。
我的生成失败并显示"MPS backend out of memory"——怎么办?
此错误意味着您的生成超出了可用内存。降低分辨率,使用更激进的量化,关闭其他应用程序,或者如果这些都不可能,生成就是无法适应您的硬件。云服务提供了一种在本地硬件无法处理的设置下生成的方式。
我应该禁用像Spotlight这样的macOS功能来释放内存吗?
禁用macOS功能的内存节省与Flux的内存需求相比是微不足道的。专注于关闭实际应用程序和使用适当的量化。为了微小的内存增益禁用有用的macOS功能是不值得的。
高级Apple Silicon优化技术
一旦基本配置正确,几种高级技术可以从您的Mac中挤出额外的性能。
Metal Performance Shaders深度解析
理解MPS行为有助于您更有效地优化。MPS是PyTorch用于Mac GPU加速的Apple GPU计算框架。
MPS优势:
- 出色的矩阵乘法性能
- 良好的内存带宽利用
- 与Apple统一内存的原生集成
MPS限制:
- 某些操作回退到CPU
- 首次运行时的编译开销
- 不如CUDA优化成熟
要识别哪些操作回退到CPU,启用MPS回退警告:
export PYTORCH_MPS_HIGH_WATERMARK_RATIO=0.0
export PYTORCH_ENABLE_MPS_FALLBACK=1
控制台将显示哪些操作使用CPU回退。太多回退表明PyTorch版本旧或MPS不太支持的模型操作。
内存压力管理
Apple Silicon的统一内存架构意味着CPU和GPU共享同一内存池。理解如何有效管理这一点至关重要:
内存监控: 在生成期间打开活动监视器的内存标签。观察:
- 内存压力图(绿色好,黄色/红色意味着抖动)
- 已使用交换(生成期间应保持最小)
- 压缩内存(高压缩表示压力)
减少内存占用: 除了使用量化模型外,您可以通过以下方式减少内存使用:
- 完全关闭浏览器(不只是标签)
- 退出通信应用(Slack、Discord使用大量内存)
- 在生成会话期间禁用Spotlight索引
- 使用活动监视器识别其他内存密集型进程
交换配置: 虽然您无法完全防止交换,但最小化它会显著提高性能。一些用户创建RAM磁盘用于交换以减少惩罚,但这需要技术知识,并且不能消除抖动问题,只是减少其影响。
模型加载优化
模型的加载方式影响内存使用和生成时间:
模型缓存: ComfyUI在生成之间缓存加载的模型。确保足够的内存余地以便模型保持缓存。重新加载10GB模型需要大量时间,缓存可以消除这些时间。
顺序加载: 当使用多个模型(检查点 + LoRA + ControlNet)时,顺序加载而不是同时加载。这可以防止内存峰值:
# 好:顺序加载
load_checkpoint()
load_lora()
load_controlnet()
# 坏:同时加载(内存峰值)
load_all_models_together()
模型精度: FP16模型使用FP32一半的内存。大多数Flux权重在FP16下工作正常,在受限系统上内存节省很大。
防止热节流
Apple Silicon在热时节流,显著降低性能。持续的生成工作负载会加热芯片:
加入其他115名学员
51节课创建超逼真AI网红
创建具有逼真皮肤细节、专业自拍和复杂场景的超逼真AI网红。一个套餐获得两门完整课程。ComfyUI Foundation掌握技术,Fanvue Creator Academy学习如何将自己营销为AI创作者。
温度监控: 使用TG Pro或iStatMenus等工具监控芯片温度。注意节流开始的时间(芯片通常在约100-105°C)。
冷却策略:
- 将Mac放在硬表面上(不是阻挡通风口的织物)
- 为笔记本电脑使用冷却垫
- 确保桌面Mac周围有足够的气流
- 为长时间生成会话考虑外部风扇
- 避免直射阳光或温暖环境
工作周期管理: 对于长时间生成会话,考虑在批次之间休息让芯片冷却。以全速一致生成比节流性能更好。
ComfyUI特定的Mac优化
几个ComfyUI配置特别有助于Apple Silicon:
注意力实现: ComfyUI的注意力实现在Mac上很重要。默认实现通常有效,但一些工作流程受益于特定的注意力模式。测试不同的选项以找到最适合您用例的。
节点选择: 一些自定义节点有Mac特定的问题。如果您遇到问题:
- 检查节点GitHub上的Mac兼容性说明
- 使用和不使用特定节点进行测试以隔离问题
- 向节点开发者报告Mac特定的错误
工作流程简化: 具有许多节点的复杂工作流程增加内存开销。尽可能简化:
- 合并可以合并的操作
- 删除未使用的节点
- 最小化消耗资源的实时预览节点
对于适用于各平台的更广泛的ComfyUI优化技术,我们的性能优化指南涵盖了额外的方法。对于可以补充您的Flux慢Mac工作流程的视频生成,我们的Wan 2.2完整指南涵盖了视频技术。
特定Mac配置故障排除
不同的Mac配置有不同的特性和常见问题。
MacBook Air注意事项
MacBook Air的冷却能力有限且共享内存池:
现实期望:
- 生成时间将比Pro/Max芯片长
- 在持续负载下热节流发生更快
- 8GB型号严重受限
- 最适合偶尔实验,不适合生产使用
优化重点:
- 使用最激进的量化(Q4)
- 将分辨率保持在512x512或更低
- 关闭除ComfyUI外的所有内容
- 在生成之间休息以冷却
Mac Mini和Mac Studio
桌面Mac有更好的热余地,但仍然共享内存限制:
优势:
- 更好的持续性能而不节流
- 更容易添加外部冷却
- 随时间更可预测的性能
配置提示:
- 定位以获得良好的气流
- 为长时间会话考虑外部风扇
- 监控温度但期望更少节流
内存配置影响
统一内存的数量极大地影响什么是实际可行的:
8GB系统:
- 只有Q4量化Flux是实际可行的
- 期望交换使用和速度下降
- 关闭所有其他应用程序
- 为复杂工作流程考虑云生成
16GB系统:
- Q8量化可以通过仔细的内存管理工作
- 如果适度可以保持浏览器打开
- 适合常规实验
24GB+系统:
- 标准工作流程的舒适余地
- 可以运行不那么激进的量化
- 多个应用程序可以保持打开
- 接近实际生产使用
32GB+系统:
- 最佳Mac Flux体验
- 需要更少量化
- 复杂工作流程变得实际可行
- 多个LoRA和ControlNet可行
与更广泛工作流程的集成
Mac Flux生成适合可能涉及其他工具和平台的更大创意工作流程。
混合工作流程策略
结合Mac本地生成与云服务以获得最佳结果:
本地用例:
- 快速概念探索
- 私人或敏感内容
- 学习和实验
- 离线工作
云用例:
- 最终生产渲染
- 高分辨率输出
- 视频生成
- 时间敏感的截止日期
这种混合方法获得Mac的便利优势,同时云处理要求高的工作。
文件管理
为效率组织您的Mac Flux设置:
模型存储:
- 在最快的可用驱动器上存储模型
- 如果内部存储有限使用外部SSD
- 只保留活动模型以节省空间
- 记录您拥有哪些模型及其量化级别
输出管理:
- 设置清晰的输出目录
- 实施命名约定
- 定期备份重要输出
- 定期清理测试生成
Mac用户学习资源
Mac特定资源帮助您有效学习:
- ComfyUI Discord有Mac特定频道
- Reddit社区讨论Mac AI生成
- YouTube教程越来越多地涵盖Mac设置
- 我们的必备节点指南涵盖了跨平台工作的基本工作流程
Apple Silicon AI生成的未来
理解Mac AI生成的发展方向有助于您规划投资和学习。
即将到来的改进
几项发展将改善Mac Flux体验:
MLX成熟: Apple的MLX框架继续改进。随着更多模型获得MLX移植和框架成熟,期望更好的Mac特定性能。
PyTorch MPS改进: 每个PyTorch版本都改进MPS支持。更多操作在GPU上原生运行,更少回退到CPU,性能提高。
模型优化: 模型创建者越来越多地在优化中考虑Apple Silicon。期望更好的量化模型和Mac特定的微调。
硬件路线图
未来的Apple Silicon将改善AI生成:
更多内存: 更高内存配置变得更常见和更实惠。64GB+统一内存显著扩展了什么是实际可行的。
Neural Engine使用: Apple Silicon中的Neural Engine被当前框架低估。未来的优化可能会使用这个专用AI硬件。
改进的效率: 每一代Apple Silicon都改善每瓦性能。未来的芯片将更好地处理AI工作负载而没有热限制。
结论
修复Flux慢Mac问题几乎总是归结为CPU回退或内存抖动。通过适当的诊断和针对Flux慢Mac问题的有针对性的修复,您应该根据芯片和配置实现30到90秒的生成时间——远离促使您阅读本指南的数小时煎熬。
从验证MPS可用性和您正在运行原生ARM Python开始。如果您遇到CPU回退作为您的Flux慢Mac原因,在其他任何事情之前修复您的Python和PyTorch安装。如果内存是Flux慢Mac问题,使用适合您内存容量的量化模型并使用--highvram启动ComfyUI。
当Flux慢Mac问题得到适当解决时,Apple Silicon提供合理的本地Flux生成能力。它不如NVIDIA快,但对于实验和创意工作是足够的。关键是确保您实际上按预期使用GPU,而不是与使生成成为挫折练习的静默CPU回退或内存压力作斗争。
对于可以补充您Mac工作流程的Flux LoRA训练,我们的Flux LoRA训练指南涵盖了训练技术(尽管训练通常在更强大的硬件上完成)。
对于想要更快Flux生成而没有Mac限制和Flux慢Mac问题的用户,Apatero.com提供NVIDIA加速生成,在几秒而不是几分钟内完成。
准备好创建你的AI网红了吗?
加入115名学生,在我们完整的51节课程中掌握ComfyUI和AI网红营销。
相关文章
10个最常见的ComfyUI新手错误及2025年修复方法
避免让新用户感到沮丧的10大ComfyUI新手陷阱。完整的故障排除指南,包含VRAM错误、模型加载问题和工作流问题的解决方案。
2025年专业用户不愿分享的25个ComfyUI技巧和诀窍
探索25个高级ComfyUI技巧、工作流优化技术和专业级诀窍。涵盖CFG调优、批处理以及质量改进的完整指南。
使用 Anisora v3.2 实现360度动漫旋转:ComfyUI 完整角色旋转指南2025
掌握使用 ComfyUI 中的 Anisora v3.2 进行360度动漫角色旋转。学习相机轨道工作流程、多视图一致性和专业转身动画技术。