/ ComfyUI / תיקון יצירת Flux איטית במיוחד על Apple Silicon - מדריך מלא
ComfyUI 13 דקות קריאה

תיקון יצירת Flux איטית במיוחד על Apple Silicon - מדריך מלא

פתרו יצירת Flux איטית במיוחד על Apple Silicon שלוקחת שעות לכל תמונה עם הגדרות זיכרון, תצורת backend ואופטימיזציה

תיקון יצירת Flux איטית במיוחד על Apple Silicon - מדריך מלא - Complete ComfyUI guide and tutorial

אם ה-Mac מסדרת M שלכם לוקח 30 דקות עד שעה ליצור תמונת Flux בודדת, משהו שבור באופן יסודי בהגדרות שלכם. אתם חווים את בעיית ה-Flux האיטי הקלאסית ב-Mac. Apple Silicon אמור ליצור תמונות Flux תוך 30 עד 90 שניות בהתאם לגרסת השבב והרזולוציה שלכם - לא שעות. ביצועי ה-Flux האיטי הקיצוניים שאתם חווים כמעט בוודאות נובעים מאחת משתי בעיות קריטיות: PyTorch נופל חזרה לביצוע CPU במקום להשתמש ב-Metal GPU, או לחץ זיכרון חמור גורם ל-swap thrashing מתמשך. שתי בעיות ה-Flux האיטי ב-Mac ניתנות לתיקון ברגע שמבינים מה קורה ואיך לאבחן את זה.

מדריך מקיף זה מכסה כל היבט של תיקון בעיות Flux איטי ב-Mac על Apple Silicon.

מדריך זה מוביל אתכם דרך זיהוי איזו בעיה יש לכם, יישום התיקונים המתאימים, ואופטימיזציה של הגדרות ה-Mac שלכם כדי להשיג את הביצועים ש-Apple Silicon באמת מסוגל לספק. בעוד שביצועי Mac לא ישתוו לחומרת NVIDIA במחיר שווה, אתם אמורים לקבל זמני יצירה סבירים שהופכים את יצירת Flux מקומית לפרקטית לניסויים ועבודה יצירתית.

הבנה למה Apple Silicon Flux יכול להיות איטי במיוחד

כדי לתקן את בעיית ה-Flux האיטי ב-Mac, תחילה צריך להבין את שני התרחישים שגורמים לזמני יצירה של שעות, כי התיקונים לבעיות Flux איטי ב-Mac שונים לחלוטין.

התרחיש הראשון הוא fallback ל-CPU. כאשר ה-backend של Metal Performance Shaders (MPS) של PyTorch לא עובד כראוי, PyTorch נופל בשקט חזרה לביצוע CPU. inference של רשתות נוירונים מבוססות CPU איטי בערך פי 50 עד 100 מביצוע GPU, והופך יצירה של 60 שניות לסבל של 60 דקות. זה קורה ללא הודעות שגיאה ברורות - היצירה שלכם פשוט לוקחת נצח בעוד שימוש ה-CPU מגיע למקסימום וה-GPU נשאר לחלוטין בטל.

מספר תנאים גורמים ל-fallback ל-CPU. ייתכן שהתקנתם גרסת x86 של Python שרצה דרך תרגום Rosetta במקום Python ARM מקורי. להתקנת ה-PyTorch שלכם עשויה לחסר תמיכת MPS, או בגלל שזו גרסה ישנה או שהותקנה בצורה לא נכונה. פעולות מסוימות במודל עשויות לא להיות להן יישומי MPS, מה שגורם לכל החישוב ליפול חזרה ל-CPU. או ש-macOS עצמו עשוי להיות לו בעיות עם MPS שעדכון מערכת יפתור.

התרחיש השני הוא memory thrashing. Apple Silicon משתמש בזיכרון מאוחד המשותף בין CPU ו-GPU, מה שמבטל את הצורך בניהול VRAM GPU מפורש אך יוצר בעיה אחרת: כאשר הביקוש הכולל לזיכרון עולה על ה-RAM הזמין, macOS מעביר נתונים לאחסון swap ב-SSD. עבור מודל עתיר זיכרון כמו Flux שצריך לשמור tensors גדולים, paging מתמשך אל וממנו swap יוצר האטות דרמטיות כיוון שהמערכת מבלה יותר זמן בהזזת נתונים מאשר בחישוב.

Memory thrashing משפיע בעיקר על Macs עם 8GB או 16GB של זיכרון מאוחד. מודל ה-full-precision של Flux דורש בערך 23GB רק למשקולות, ו-inference מוסיף זיכרון activation משמעותי על גביו. אפילו עם quantization GGUF שמפחית משמעותית את דרישות הזיכרון, Mac 8GB שמריץ Flux יעשה thrash כבד. Mac 16GB יכול לעבוד עם מודלים מקוונטזים אם שום דבר אחר לא צורך זיכרון, אבל tabs של דפדפן, תהליכי רקע, ו-macOS עצמו אוכלים מהמקום הזמין.

החדשות הטובות הן ששתי הבעיות ניתנות לאבחון ולתיקון. בואו נתחיל עם האבחון.

אבחון CPU Fallback לעומת Memory Thrashing

לפני שמנסים תיקוני Flux איטי ב-Mac, קבעו איזו בעיה אתם חווים. גישת האבחון לבעיות Flux איטי ב-Mac שונה, ויישום התיקון הלא נכון מבזבז זמן.

למשתמשים חדשים ב-ComfyUI על Mac, מדריך הצמתים החיוניים שלנו מכסה מושגים בסיסיים שחלים גם על Mac וגם על פלטפורמות אחרות.

כדי לבדוק fallback ל-CPU, פתחו את Activity Monitor לפני התחלת יצירה וצפו בשימוש ב-CPU וב-GPU במהלך התהליך. על מערכת מוגדרת נכון, שימוש ה-GPU אמור לעלות גבוה בעוד ליבות CPU בודדות נשארות יחסית רגועות (פעילות CPU מסוימת נורמלית להכנת נתונים). אם אתם רואים את כל ליבות ה-CPU במקסימום 100% בעוד שימוש ה-GPU נשאר קרוב לאפס לאורך כל היצירה, אתם פוגעים ב-fallback ל-CPU.

אתם יכולים גם לאמת את זמינות MPS ישירות ב-Python. פתחו Terminal והריצו:

python3 -c "import torch; print('MPS זמין:', torch.backends.mps.is_available()); print('MPS בנוי:', torch.backends.mps.is_built())"

שני הערכים אמורים להדפיס True. אם MPS לא זמין, התקנת ה-PyTorch שלכם צריכה תיקון לפני שמשהו אחר יעזור.

בדקו שאתם מריצים Python ARM מקורי, לא x86 דרך Rosetta:

python3 -c "import platform; print('ארכיטקטורה:', platform.machine())"

זה אמור להדפיס "arm64". אם זה מדפיס "x86_64", אתם מריצים את ארכיטקטורת ה-Python הלא נכונה לחלוטין, ו-MPS לא יכול לעבוד.

כדי לאבחן memory thrashing, צפו בלשונית Memory של Activity Monitor במהלך היצירה. הסתכלו על גרף Memory Pressure וערך Swap Used. לחץ זיכרון ירוק עם שימוש swap מינימלי מציין זיכרון מספיק. לחץ זיכרון צהוב או אדום עם swap גדל במהלך היצירה מציין thrashing. אתם יכולים גם לצפות בפעילות Disk ב-Activity Monitor - פעילות disk כבדה במהלך מה שאמור להיות משימה מוגבלת חישוב מרמזת על פעילות swap.

אבחון נוסף הוא התקדמות זמן היצירה. עם fallback ל-CPU, היצירה מתקדמת בקצב איטי אך יציב - כל צעד לוקח זמן רב אבל אחוז ההשלמה מתקדם באופן עקבי. עם memory thrashing, תראו התקדמות לא סדירה שבה צעדים מסוימים מסתיימים יחסית מהר בעוד אחרים נתקעים לתקופות מורחבות כאשר המערכת עושה swap.

אם אתם רואים גם CPU גבוה וגם פעילות swap משמעותית, כנראה יש לכם את שתי הבעיות - fallback ל-CPU גורם לדפוסי חישוב לא יעילים שמפעילים יותר לחץ זיכרון. תקנו fallback ל-CPU תחילה, אז טפלו בזיכרון אם צריך.

תיקון בעיות CPU Fallback

אם קבעתם ש-PyTorch נופל חזרה ל-CPU במקום להשתמש ב-MPS, הנה איך לתקן את בעיית ה-Flux האיטי הזו ב-Mac. fallback ל-CPU הוא הסיבה הנפוצה ביותר לביצועי Flux איטי ב-Mac.

ראשית, וודאו שיש לכם Python ARM מקורי מותקן. הגישה הקלה ביותר היא להתקין Python דרך Homebrew, שמספק אוטומטית את גרסת ARM על Macs Apple Silicon:

# התקינו Homebrew אם אין לכם
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

# התקינו Python
brew install python@3.11

אם התקנתם Python באמצעים אחרים, אמתו את הארכיטקטורה כפי שהוצג למעלה והתקינו מחדש אם זה x86.

זרימות עבודה ComfyUI בחינם

מצא זרימות עבודה ComfyUI חינמיות וקוד פתוח לטכניקות במאמר זה. קוד פתוח הוא חזק.

100% בחינם רישיון MIT מוכן לייצור תן כוכב ונסה

לאחר מכן, צרו סביבה וירטואלית נקייה כדי למנוע זיהום מהתקנות שבורות קודמות:

python3 -m venv ~/flux_env
source ~/flux_env/bin/activate

כעת התקינו PyTorch עם תמיכת MPS. התקנת PyTorch הרשמית ל-Mac כוללת תמיכת MPS כברירת מחדל בגרסאות אחרונות:

pip install --upgrade pip
pip install torch torchvision torchaudio

אמתו שההתקנה עבדה:

python -c "import torch; print('גרסת PyTorch:', torch.__version__); print('MPS זמין:', torch.backends.mps.is_available())"

אם MPS עדיין לא זמין, ייתכן שתצטרכו לעדכן את macOS. תמיכת MPS השתפרה משמעותית דרך עדכוני macOS, ופעולות מסוימות דורשות גרסאות אחרונות. עדכנו לגרסת macOS האחרונה הזמינה ל-Mac שלכם.

הגדרות מסוימות נהנות מהפעלת מצב fallback MPS, שמאפשר לפעולות ללא יישומי MPS מקוריים ליפול חזרה ל-CPU תוך שימוש ב-MPS לכל השאר. זה טוב יותר מ-fallback מלא ל-CPU:

export PYTORCH_ENABLE_MPS_FALLBACK=1

הוסיפו זאת לפרופיל ה-shell שלכם (~/.zshrc עבור shell ברירת המחדל של macOS) כדי להפוך את זה לקבוע.

עם fallback ל-CPU נפתר, אמתו שהתיקון עבד על ידי יצירת תמונה תוך צפייה ב-Activity Monitor. אתם אמורים לראות שימוש GPU עולה בעוד שימוש CPU נשאר מתון. זמן היצירה אמור לרדת משעות לפחות משתי דקות להגדרות טיפוסיות.

תיקון בעיות לחץ זיכרון

אם ל-Mac שלכם יש פונקציונליות MPS מספקת אבל memory thrashing גורם לביצועי Flux איטי ב-Mac, אתם צריכים להפחית דרישות זיכרון או להגדיל זיכרון זמין. לחץ זיכרון הוא הסיבה העיקרית השנייה לבעיות Flux איטי ב-Mac.

השינוי המשפיע ביותר הוא שימוש במודלים מקוונטזים. quantization GGUF מפחית דרמטית את דרישות הזיכרון תוך שמירה על איכות סבירה. מודל Flux מקוונטז Q8_0 צריך בערך 12GB בהשוואה ל-23GB לדיוק מלא. quantization Q4_K_M מוריד את זה לבערך 6GB, מה שהופך את Flux לנגיש אפילו על Macs 8GB בזהירות.

הורידו מודלי Flux מקוונטזים GGUF ממאגרי HuggingFace שמספקים אותם. התקינו את חבילת הצמתים ComfyUI-GGUF כדי לטעון אותם:

רוצה לדלג על המורכבות? Apatero מספק לך תוצאות AI מקצועיות מיד ללא הגדרות טכניות.

ללא הגדרה אותה איכות התחל ב-30 שניות נסה Apatero בחינם
לא נדרש כרטיס אשראי
cd ~/ComfyUI/custom_nodes
git clone https://github.com/city96/ComfyUI-GGUF
pip install -r ComfyUI-GGUF/requirements.txt

אז השתמשו בצמתי טוען GGUF במקום טועני checkpoint סטנדרטיים.

אם יש לכם Mac 16GB או יותר ואתם רוצים להשתמש במודלים בדיוק מלא, מקסמו את הזיכרון הזמין לפני היצירה. סגרו דפדפנים לחלוטין - Chrome עם tabs מרובים יכול בקלות לצרוך 4-8GB. צאו מ-Slack, Discord, Spotify, ויישומי רקע אחרים. בדקו ב-Activity Monitor תהליכים שצורכים זיכרון משמעותי וסגרו כל מה שמיותר.

ה-flags לניהול זיכרון של ComfyUI חשובים משמעותית על Mac. השתמשו ב-flag --highvram:

python main.py --highvram

זה אומר ל-ComfyUI לשמור מודלים בזיכרון במקום להזיז אותם. על מערכות זיכרון מאוחד, ה-offloading ש-lowvram-- מבצע לא מספק תועלת (אין VRAM GPU נפרד לחסוך) תוך הוספת overhead מתנועת נתונים מיותרת.

אל תשתמשו ב-lowvram-- או --medvram על Mac. flags אלה מיועדים ל-GPUs נפרדים עם VRAM מוגבל, שבהם offloading משקולות מודל ל-RAM המערכת במהלך חישוב חוסך VRAM במחיר overhead העברה. עם זיכרון מאוחד, המשקולות כבר באותו pool זיכרון שה-GPU ניגש אליו, אז offloading רק מוסיף latency העברה ללא תועלת.

עבור Macs עם זיכרון מוגבל שמריצים מודלים מקוונטזים, שקלו להפחית רזולוציית יצירה. יצירה ב-768x768 במקום 1024x1024 מפחיתה משמעותית זיכרון activation במהלך inference. אתם יכולים להגדיל את התוצאה אחר כך אם צריך.

ציפיות ביצועים מציאותיות

עם תצורה נכונה ובעיות Flux איטי ב-Mac נפתרות, הנה מה לצפות משבבי Apple Silicon שונים שמריצים Flux ברזולוציה 1024x1024 עם 20 צעדים:

שבבי בסיס M1/M2 (GPU 8-core, זיכרון 8-16GB): שבבים אלה יכולים להריץ Flux אבל בקצה היכולת. עם quantization Q4 וניהול זיכרון זהיר, צפו ל-60-90 שניות ליצירות סטנדרטיות. גרסאות 8GB דורשות quantization אגרסיבי ומייצרים ברזולוציות קטנות יותר כדי למנוע thrashing.

שבבי M1/M2/M3 Pro (GPU 14-16 core, זיכרון 16-32GB): זהו ה-sweet spot ליצירת Flux ב-Mac. עם גרסאות זיכרון 18GB+, אתם יכולים להריץ מודלים מקוונטזים Q8 בנוחות. צפו ל-45-70 שניות ליצירות סטנדרטיות, עם זמנים מהירים יותר על תצורות זיכרון גבוהות יותר שנמנעות מכל לחץ swap.

שבבי M3/M4 Pro ו-Max (עד GPU 40-core, עד זיכרון 128GB): השבבים המתקדמים מספקים את ביצועי ה-Mac הטובים ביותר. M3 Max ו-M4 Max עם זיכרון 64GB+ יכולים להריץ Flux בדיוק מלא ללא לחץ זיכרון. צפו ל-30-50 שניות ליצירות סטנדרטיות, כאשר שבבי Max המוגדרים הכי טוב מתקרבים ל-30 שניות.

הצטרף ל-115 חברי קורס אחרים

צור את המשפיען הראשון שלך עם AI בריאליזם מלא ב-51 שיעורים

צור משפיענים AI ריאליסטיים במיוחד עם פרטי עור אמיתיים, סלפי מקצועיים וסצנות מורכבות. קבל שני קורסים מלאים בחבילה אחת. ComfyUI Foundation לשליטה בטכנולוגיה, ו-Fanvue Creator Academy ללמוד כיצד לשווק את עצמך כיוצר AI.

התמחור המוקדם מסתיים בעוד:
--
ימים
:
--
שעות
:
--
דקות
:
--
שניות
51 שיעורים • 2 קורסים מלאים
תשלום חד-פעמי
עדכונים לכל החיים
חסוך $200 - המחיר עולה ל-$399 לתמיד
הנחת רוכש מוקדם לסטודנטים הראשונים שלנו. אנחנו כל הזמן מוסיפים יותר ערך, אבל אתה נועל $199 לתמיד.
מתאים למתחילים
מוכן לייצור
תמיד מעודכן

השוואה ל-NVIDIA: אפילו ה-M4 Max המהיר ביותר איטי יותר מ-RTX 4070 בינוני, ואיטי יותר משמעותית מ-RTX 4090. RTX 4090 מייצר תמונות Flux ב-8-12 שניות בהגדרות דומות. אם ביצועים גולמיים הם העדיפות שלכם ואתם לא מחויבים לאקוסיסטם Mac, NVIDIA מספק ביצועים הרבה יותר טובים לדולר. יצירת Flux ב-Mac הגיונית אם אתם צריכים לעבוד על Mac מסיבות אחרות ומקבלים את הפשרת הביצועים.

ציפיות אלה מניחות מערכות מוגדרות נכון עם quantization מתאים לזיכרון שלכם. אם אתם רואים זמנים גרועים הרבה יותר מטווחים אלה לאחר יישום התיקונים במדריך זה, משהו אחר לא בסדר - חזרו לצעדי האבחון.

אופטימיזציות מתקדמות

ברגע שיש לכם את הבסיס עובד נכון, מספר טכניקות מתקדמות יכולות לסחוט ביצועים נוספים.

MLX הוא framework למידת מכונה של Apple שמאופטם במיוחד ל-Apple Silicon. מודלים שהועברו ל-MLX יכולים לרוץ מהר יותר מיישומי PyTorch MPS כי MLX תוכנן מאפס לחומרת Apple. האקוסיסטם של MLX גדל, ויישומי Flux קיימים. אם אתם נוחים עם הגדרת סביבות MLX, שווה לבדוק אם זה מספק ביצועים טובים יותר מ-PyTorch MPS למקרה השימוש שלכם.

כוונון ניהול זיכרון יכול לעזור על מערכות מוגבלות. הגדרת משתנה הסביבה PYTORCH_MPS_HIGH_WATERMARK_RATIO=0.0 אומרת ל-PyTorch לא לשמור הקצאות זיכרון ב-cache, מה שיכול להפחית שימוש זיכרון שיא במחיר יותר overhead הקצאה. זה מחליף קצת ביצועים עבור יכולת לרוץ על מערכות עם פחות זיכרון:

export PYTORCH_MPS_HIGH_WATERMARK_RATIO=0.0

אם אתם מריצים ComfyUI באופן קבוע, הגדירו ניקוי זיכרון אוטומטי. ComfyUI יכול לשמור ב-cache נתונים של יצירות קודמות לנוחות, אבל זה צורך זיכרון. ל-UI יש אפשרויות לפרוק מודלים אוטומטית אחרי שימוש, מה שמשחרר זיכרון ליישומים אחרים בין סשנים של יצירה.

שקלו את הסביבה התרמית. עומסי עבודה של יצירה מתמשכים מחממים את השבב, ו-Apple Silicon מאט כשחם. וודאו אוורור טוב, הימנעו מלערום דברים על ה-MacBook שלכם, ושקלו מעמד קירור לסשנים מורחבים של יצירה. הביצועים יורדים באופן ניכר כאשר thermal throttling מתחיל.

שאלות נפוצות

למה יצירת ה-Flux שלי פתאום הפכה לאיטית כשעבדה קודם?

עדכוני macOS לפעמים שוברים זמנית את פונקציונליות MPS, מה שדורש עדכוני PyTorch כדי לשחזר תאימות. אחרי כל עדכון macOS, אמתו ש-MPS עדיין זמין ועדכנו PyTorch אם צריך. גם בדקו אם עדכון macOS הגדיל צריכת זיכרון רקע, מה שיוצר לחץ חדש על מערכות מוגבלות.

האם 8GB RAM מספיקים ל-Flux על Mac?

בקושי, ורק עם quantization Q4 אגרסיבי ושום דבר אחר לא רץ. היצירה תהיה איטית בגלל לחץ זיכרון אפילו עם quantization. 16GB הוא המינימום המציאותי, ו-24GB+ מספק מרווח נוח. אם אתם קונים Mac חדש לעבודת AI, קבלו כמה שיותר זיכרון שאתם יכולים להרשות לעצמכם - לא ניתן לשדרג אחר כך.

האם עלי להשתמש ב-Rosetta ל-ComfyUI?

לעולם לא. תרגום Rosetta מוסיף overhead ומונע מ-MPS לעבוד לחלוטין. תמיד השתמשו ב-Python ARM מקורי וחבילות. אם משהו עובד רק דרך Rosetta, מצאו חלופת ARM.

היצירה הראשונה שלי איטית אבל הבאות מהירות - האם זה נורמלי?

כן. היצירה הראשונה כוללת טעינת מודל והידור shader של Metal, שניהם נשמרים ב-cache להרצות הבאות. תעתקו את היצירה השנייה או השלישית להערכת ביצועים מייצגת.

האם גרסאות macOS עתידיות יהפכו את Flux למהיר יותר?

כנראה כן, בהדרגה. Apple ממשיכה לשפר MPS עם כל גרסה, ו-PyTorch גם משפר את ה-backend MPS שלו. עדכונים עשויים גם להביא תמיכת MLX טובה יותר למודלים פופולריים. עם זאת, אל תצפו להאצות דרמטיות - החומרה היא המגבלה הבסיסית.

האם אני יכול להשתמש ב-GPU חיצוני כדי לשפר ביצועים?

לא. macOS ביטל תמיכת eGPU עבור Macs Apple Silicon, וזה לא היה נהדר גם כשנתמך. ה-GPU הפנימי שלכם הוא מה שיש לכם. אם אתם צריכים יותר כוח GPU, שקלו שירותי ענן או מערכת NVIDIA ייעודית.

למה ה-M3 Max שלי איטי יותר מ-benchmarks מדווחים?

אמתו שאתם לא פוגעים ב-thermal throttling במהלך יצירה מורחבת. בדקו תצורת זיכרון - ההשוואה עשויה להשתמש בדיוק מלא בעוד שאתם משתמשים ב-quantization, או להיפך. גם וודאו שאתם משווים דומה לדומה: אותו מודל, רזולוציה, צעדים והגדרות.

האם MLX טוב יותר מ-PyTorch MPS ל-Flux?

לפעמים כן, לפעמים לא. MLX יכול להיות מהיר יותר למודלים שיש להם יישומי MLX טובים, אבל האקוסיסטם קטן יותר מ-PyTorch. בדקו את שניהם אם יש לכם זמן, אבל PyTorch MPS היא האפשרות הבוגרת יותר והמתועדת יותר כרגע.

היצירה שלי נכשלת עם "MPS backend out of memory" - מה לעשות?

שגיאה זו אומרת שהיצירה שלכם חרגה מהזיכרון הזמין. הפחיתו רזולוציה, השתמשו ב-quantization אגרסיבי יותר, סגרו יישומים אחרים, או אם אף אחד מאלה לא אפשרי, היצירה פשוט לא נכנסת לחומרה שלכם. שירותי ענן מספקים דרך ליצור בהגדרות שהחומרה המקומית שלכם לא יכולה לטפל.

האם עלי להשבית תכונות macOS כמו Spotlight כדי לשחרר זיכרון?

חיסכון הזיכרון מהשבתת תכונות macOS מינימלי בהשוואה לדרישות הזיכרון של Flux. התמקדו בסגירת יישומים אמיתיים ושימוש ב-quantization מתאים. השבתת תכונות macOS שימושיות לרווחי זיכרון שוליים לא שווה את זה.

סיכום

תיקון בעיית ה-Flux האיטי ב-Mac כמעט תמיד מגיע ל-fallback CPU או memory thrashing. עם אבחון נכון ותיקונים ממוקדים לבעיות Flux איטי ב-Mac, אתם אמורים להשיג זמני יצירה של 30 עד 90 שניות בהתאם לשבב ולתצורה שלכם - רחוק מהסבל של שעות שגרם לכם לקרוא את המדריך הזה.

התחילו באימות זמינות MPS ושאתם מריצים Python ARM מקורי. אם אתם חווים fallback ל-CPU כגורם ל-Flux האיטי שלכם ב-Mac, תקנו את התקנת Python ו-PyTorch שלכם לפני כל דבר אחר. אם זיכרון הוא בעיית ה-Flux האיטי ב-Mac, השתמשו במודלים מקוונטזים מתאימים לקיבולת הזיכרון שלכם והפעילו את ComfyUI עם highvram--.

Apple Silicon מספק יכולת יצירת Flux מקומית סבירה כאשר בעיות Flux איטי ב-Mac נפתרות כראוי. זה לא מהיר כמו NVIDIA, אבל זה מספיק לניסויים ועבודה יצירתית. המפתח הוא לוודא שאתם באמת משתמשים ב-GPU כמיועד במקום להילחם נגד fallback CPU שקט או לחץ זיכרון שהופך יצירה לתרגיל בתסכול.

לאימון Flux LoRA שיכול להשלים את זרימות העבודה שלכם ב-Mac, מדריך אימון Flux LoRA שלנו מכסה טכניקות אימון (אם כי אימון נעשה בדרך כלל על חומרה חזקה יותר).

למשתמשים שרוצים יצירת Flux מהירה יותר ללא מגבלות Mac וללא בעיות Flux איטי ב-Mac, Apatero.com מספק יצירה מואצת NVIDIA שמסתיימת בשניות במקום דקות.

מוכן ליצור את המשפיען AI שלך?

הצטרף ל-115 סטודנטים שמשתלטים על ComfyUI ושיווק משפיענים AI בקורס המלא שלנו בן 51 שיעורים.

התמחור המוקדם מסתיים בעוד:
--
ימים
:
--
שעות
:
--
דקות
:
--
שניות
תפוס את מקומך - $199
חסוך $200 - המחיר עולה ל-$399 לתמיד