/ ComfyUI / ComfyUI Cơ Bản: Hướng Dẫn Các Node Thiết Yếu
ComfyUI 14 phút đọc

ComfyUI Cơ Bản: Hướng Dẫn Các Node Thiết Yếu

Làm chủ các khối xây dựng nền tảng của ComfyUI. Hướng dẫn thực hành này giải thích từng node thiết yếu bạn cần, cách kết nối chúng và cách xây dựng các workflow...

ComfyUI Cơ Bản: Hướng Dẫn Các Node Thiết Yếu - Complete ComfyUI guide and tutorial

ComfyUI khiến người mới bắt đầu choáng ngợp với hàng trăm node có sẵn. Nhưng thực tế? Bạn chỉ cần hiểu khoảng 15 node cốt lõi để xây dựng các workflow tạo ảnh mạnh mẽ. Hướng dẫn này giải thích chính xác những node đó, cách chúng kết nối và tại sao bạn cần chúng.

Nếu bạn hoàn toàn mới với ComfyUI, hãy bắt đầu với hướng dẫn hoàn chỉnh cho người mới bắt đầu về tạo ảnh AI của chúng tôi trước.

Hiểu Hệ Thống Node Của ComfyUI

Trước khi đi vào các node cụ thể, hãy hiểu cách hệ thống hoạt động. ComfyUI sử dụng hệ thống node-based programming thay vì các thanh trượt và hộp đơn giản.

Suy nghĩ về node như LEGO:

  • Mỗi node thực hiện một chức năng cụ thể
  • Các node kết nối với nhau để tạo thành pipeline
  • Dữ liệu chảy từ trái sang phải qua các kết nối
  • Các màu đầu ra và đầu vào khớp khi chúng tương thích

Workflow cơ bản trông như thế này:

Load Model → Add Prompt → Generate → Save Image

Trong ComfyUI, mỗi bước đó là một node, và bạn vẽ các kết nối (dây) giữa chúng để tạo luồng công việc.

Node Thiết Yếu 1: Load Checkpoint

Công dụng: Tải model AI (checkpoint) tạo ra ảnh của bạn

Model checkpoint chứa kiến thức AI đã học được từ hàng triệu ảnh. Không có model, ComfyUI không thể tạo bất cứ thứ gì.

Cách sử dụng:

  1. Thêm node "Load Checkpoint" vào canvas
  2. Click vào dropdown để xem các checkpoint đã cài đặt của bạn
  3. Chọn model (như Stable Diffusion 1.5, SDXL, hoặc Flux)

Node này xuất ra ba thứ:

  • MODEL: Trọng số thần kinh chính để tạo ảnh
  • CLIP: Mã hóa văn bản hiểu prompt của bạn
  • VAE: Bộ mã hóa hình ảnh xử lý pixel

Cả ba đầu ra này kết nối với các node khác nhau trong workflow của bạn.

Mẹo quan trọng: Các model khác nhau tạo ra các loại ảnh khác nhau. SDXL tốt cho chất lượng chung, Flux nhanh, và các model anime chuyên biệt cho phong cách đó. Tìm hiểu về các lựa chọn model khác nhau.

Node Thiết Yếu 2: CLIP Text Encode (Prompt)

Công dụng: Chuyển đổi prompt văn bản của bạn thành ngôn ngữ AI có thể hiểu

Model AI không đọc tiếng Anh - chúng làm việc với các vector toán học. CLIP text encoder chuyển đổi các từ của bạn thành những vector đó.

Cách sử dụng:

  1. Thêm node "CLIP Text Encode (Prompt)"
  2. Kết nối đầu ra CLIP từ Load Checkpoint vào node này
  3. Nhập prompt của bạn trong hộp văn bản
  4. Đầu ra CONDITIONING đi vào sampler của bạn

Bạn cần hai trong số này:

  • Một cho prompt dương (những gì bạn muốn)
  • Một cho prompt âm (những gì bạn không muốn)

Ví dụ prompt dương:

a professional photo of a mountain landscape at sunset,
dramatic clouds, golden hour lighting, highly detailed,
8k resolution

Ví dụ prompt âm:

blurry, low quality, distorted, artifacts, watermark,
text, signature

Để viết prompt tốt hơn, xem hướng dẫn kỹ thuật prompting của chúng tôi.

Node Thiết Yếu 3: KSampler

Công dụng: Trái tim của việc tạo ảnh - thực sự tạo ra hình ảnh của bạn

Sampler thực hiện quá trình tạo ảnh thực tế bằng cách loại bỏ noise dần dần để tiết lộ ảnh của bạn.

Inputs chính:

  • model: Từ Load Checkpoint
  • positive: Từ CLIP Text Encode (prompt của bạn)
  • negative: Từ CLIP Text Encode (những gì tránh)
  • latent_image: Từ Empty Latent Image
  • seed: Số để tái tạo (sử dụng -1 cho ngẫu nhiên)
  • steps: Bao nhiêu lần tinh chỉnh (20-30 là tốt)
  • cfg: Làm theo prompt gần như thế nào (7-9 là điểm ngọt)
  • sampler_name: Thuật toán sử dụng (dpm_2m tốt để bắt đầu)
  • scheduler: Lịch trình tiếng ồn (karras là vững chắc)

Cài đặt đề xuất cho người mới bắt đầu:

seed: -1 (ngẫu nhiên)
steps: 25
cfg: 7.5
sampler_name: dpm_2m
scheduler: karras

KSampler xuất ra LATENT - một biểu diễn nén của ảnh của bạn mà cần được giải mã.

Để chọn sampler và cài đặt tốt nhất, xem hướng dẫn sampler và scheduler của chúng tôi.

Node Thiết Yếu 4: Empty Latent Image

Công dụng: Tạo canvas trống mà KSampler sẽ vẽ lên

Suy nghĩ về điều này như canvas trống cho bức tranh của bạn. Bạn chỉ định kích thước và số lượng batch.

Inputs:

  • width: Chiều rộng pixel (512, 768, 1024, v.v.)
  • height: Chiều cao pixel
  • batch_size: Bao nhiêu ảnh cùng lúc (bắt đầu với 1)

Các kích thước phổ biến:

  • 512x512: Cơ bản SD1.5 (nhanh)
  • 768x768: Chất lượng tốt hơn SD1.5
  • 1024x1024: SDXL vuông
  • 1024x1536: SDXL dọc (tốt cho chân dung)
  • 1536x1024: SDXL ngang (tốt cho cảnh)

Lưu ý quan trọng: Độ phân giải cao hơn yêu cầu nhiều VRAM hơn. Nếu bạn hết bộ nhớ, giảm độ phân giải. Xem hướng dẫn tối ưu hóa VRAM của chúng tôi để biết các mẹo.

Node Thiết Yếu 5: VAE Decode

Công dụng: Chuyển đổi đầu ra latent từ sampler thành ảnh thực tế

Sampler tạo ra các biểu diễn latent nén - VAE Decode biến chúng thành ảnh pixel thực tế mà bạn có thể xem và lưu.

Cách sử dụng:

  1. Kết nối đầu ra LATENT từ KSampler
  2. Kết nối đầu ra VAE từ Load Checkpoint
  3. Đầu ra IMAGE đi vào Save Image hoặc Preview Image

Đó là nó! Node này không có cài đặt để cấu hình.

Quy Trình ComfyUI Miễn Phí

Tìm quy trình ComfyUI miễn phí và mã nguồn mở cho các kỹ thuật trong bài viết này. Mã nguồn mở rất mạnh mẽ.

100% Miễn Phí Giấy Phép MIT Sẵn Sàng Sản Xuất Gắn Sao & Dùng Thử

Node Thiết Yếu 6: Save Image / Preview Image

Công dụng: Xem hoặc lưu hình ảnh đã tạo của bạn

Hai node này cho phép bạn xem và lưu công việc của mình.

Preview Image:

  • Hiển thị ảnh trong cửa sổ ComfyUI
  • Tốt cho kiểm tra nhanh
  • Không lưu vào đĩa (tạm thời)

Save Image:

  • Hiển thị và lưu vào đĩa
  • Lưu trong ComfyUI/output/
  • Hỗ trợ naming tùy chỉnh qua trường filename_prefix

Mẹo: Sử dụng Preview Image trong quá trình thử nghiệm để tránh làm lộn xộn thư mục đầu ra của bạn. Chuyển sang Save Image khi bạn đang tạo ra giữ.

Workflow Thiết Yếu 1: Pipeline Text-to-Image Cơ Bản

Hãy kết nối mọi thứ vào workflow đầu tiên của bạn.

Danh sách node cần thiết:

  1. Load Checkpoint
  2. CLIP Text Encode (Prompt) - Dương
  3. CLIP Text Encode (Prompt) - Âm
  4. Empty Latent Image
  5. KSampler
  6. VAE Decode
  7. Save Image

Luồng kết nối:

Load Checkpoint
├─ MODEL → KSampler
├─ CLIP → CLIP Text Encode (Positive) → CONDITIONING → KSampler
├─ CLIP → CLIP Text Encode (Negative) → CONDITIONING → KSampler
└─ VAE → VAE Decode

Empty Latent Image → LATENT → KSampler

KSampler → LATENT → VAE Decode

VAE Decode → IMAGE → Save Image

Cách xây dựng điều này:

  1. Thêm Load Checkpoint - chọn model của bạn
  2. Thêm hai CLIP Text Encode - nhập prompt dương và âm
  3. Kết nối CLIP từ checkpoint vào cả hai node text encode
  4. Thêm Empty Latent Image - cài đặt độ phân giải mong muốn
  5. Thêm KSampler
  6. Kết nối MODEL từ checkpoint vào KSampler
  7. Kết nối cả hai CONDITIONING vào KSampler (dương và âm)
  8. Kết nối LATENT từ Empty Latent vào KSampler
  9. Thêm VAE Decode
  10. Kết nối LATENT từ KSampler vào VAE Decode
  11. Kết nối VAE từ checkpoint vào VAE Decode
  12. Thêm Save Image và kết nối IMAGE từ VAE Decode

Bây giờ click "Queue Prompt" để tạo ảnh đầu tiên của bạn!

Workflow này là nền tảng mọi thứ khác trong ComfyUI. Làm chủ điều này trước khi tiếp tục.

Node Nâng Cao Bạn Sẽ Cần Sớm

Một khi bạn thoải mái với workflow cơ bản, những node này mở ra nhiều khả năng hơn.

LoRA Loader

Công dụng: Thêm các sửa đổi phong cách nhỏ vào model của bạn

LoRA (Low-Rank Adaptation) là các model nhỏ điều chỉnh checkpoint chính của bạn. Chúng hoàn hảo để thêm:

  • Phong cách nghệ thuật cụ thể
  • Đặc điểm nhân vật
  • Hiệu ứng ánh sáng
  • Cải thiện chất lượng

Cách sử dụng:

Muốn bỏ qua sự phức tạp? Apatero mang đến kết quả AI chuyên nghiệp ngay lập tức mà không cần thiết lập kỹ thuật.

Không cần thiết lập Chất lượng như nhau Bắt đầu trong 30 giây Dùng Thử Apatero Miễn Phí
Không cần thẻ tín dụng
  1. Chèn LoRA Loader giữa Load Checkpoint và KSampler
  2. Chọn LoRA từ dropdown
  3. Cài đặt độ mạnh (thường là 0.6-1.0)
  4. Kết nối MODEL và CLIP qua nó

Bạn có thể xếp nhiều LoRA với nhau. Tìm hiểu thêm trong hướng dẫn LoRA đầy đủ của chúng tôi.

Load Image

Công dụng: Nhập ảnh hiện có để sửa đổi

Thay vì Empty Latent Image, bạn có thể bắt đầu với ảnh hiện có cho:

  • img2img (sửa đổi ảnh hiện có)
  • inpainting (chỉnh sửa một phần ảnh)
  • upscaling (tăng độ phân giải)

Ảnh nhập cần đi qua VAE Encode trước khi vào KSampler.

VAE Encode

Công dụng: Chuyển đổi ảnh pixel thành biểu diễn latent

Đây là ngược lại của VAE Decode. Bạn cần nó khi bắt đầu với ảnh hiện có thay vì canvas trống.

Luồng cho img2img:

Load Image → VAE Encode → LATENT → KSampler

Cài đặt denoise trong KSampler kiểm soát thay đổi bao nhiêu (0.0 = không thay đổi, 1.0 = hoàn toàn mới).

ControlNet

Công dụng: Hướng dẫn tạo sử dụng cấu trúc từ ảnh tham chiếu

ControlNet cho bạn kiểm soát chính xác về:

  • Pose (dùng ảnh tham chiếu)
  • Depth (bảo toàn độ sâu 3D)
  • Canny edges (duy trì các cạnh)
  • OpenPose (điều khiển các tư thế cơ thể)

Những node này phức tạp hơn nhưng mạnh mẽ không thể tin được. Xem hướng dẫn kết hợp ControlNet của chúng tôi để biết cách sử dụng.

Các Lỗi Phổ Biến và Cách Sửa

"Đầu ra không tương thích với đầu vào"

Vấn đề: Bạn đang cố kết nối các loại dữ liệu sai

Giải pháp: Kiểm tra màu sắc. Đầu ra màu tím chỉ có thể kết nối với đầu vào màu tím. Các màu sắc khớp nhau:

  • Tím: MODEL
  • Vàng: CLIP
  • Hồng: VAE
  • Trắng: LATENT
  • Xanh lá: IMAGE

"Hết VRAM"

Vấn đề: Model của bạn hoặc độ phân giải quá lớn cho GPU của bạn

Tham gia cùng 115 thành viên khóa học khác

Tạo Influencer AI Siêu Thực Đầu Tiên Của Bạn Trong 51 Bài Học

Tạo influencer AI siêu thực với chi tiết da sống động, ảnh selfie chuyên nghiệp và cảnh phức tạp. Nhận hai khóa học hoàn chỉnh trong một gói. ComfyUI Foundation để thành thạo công nghệ, và Fanvue Creator Academy để học cách tiếp thị bản thân như một nhà sáng tạo AI.

Giá sớm kết thúc trong:
--
Ngày
:
--
Giờ
:
--
Phút
:
--
Giây
51 Bài Học • 2 Khóa Học Đầy Đủ
Thanh Toán Một Lần
Cập Nhật Trọn Đời
Tiết Kiệm $200 - Giá Tăng Lên $399 Vĩnh Viễn
Giảm giá sớm cho học sinh đầu tiên của chúng tôi. Chúng tôi liên tục thêm giá trị, nhưng bạn khóa giá $199 mãi mãi.
Thân thiện với người mới
Sẵn sàng sản xuất
Luôn cập nhật

Giải pháp:

  1. Giảm độ phân giải (768x768 thay vì 1024x1024)
  2. Giảm batch_size xuống 1
  3. Sử dụng cài đặt attention ít tốn bộ nhớ hơn
  4. Đóng các ứng dụng khác sử dụng GPU

Xem hướng dẫn tối ưu hóa VRAM của chúng tôi để biết nhiều giải pháp hơn.

"Không thể tìm thấy Model"

Vấn đề: ComfyUI không thể thấy tệp model của bạn

Giải pháp:

  1. Kiểm tra các model trong ComfyUI/models/checkpoints/
  2. Kiểm tra LoRA trong ComfyUI/models/loras/
  3. Làm mới trình duyệt (Ctrl+F5)
  4. Khởi động lại ComfyUI nếu bạn vừa thêm các model

"Quá trình tạo quá chậm"

Vấn đề: Hardware hoặc cài đặt không tối ưu

Giải pháp:

  1. Giảm steps từ 30 xuống 20
  2. Sử dụng sampler nhanh hơn (euler_a thay vì dpm_2m)
  3. Giảm độ phân giải
  4. Kích hoạt xformers hoặc tối ưu hóa flash attention
  5. Đảm bảo ComfyUI đang sử dụng GPU, không CPU

Xem hướng dẫn tối ưu hóa hiệu suất của chúng tôi.

Các Bước Tiếp Theo: Đi Xa Hơn Cơ Bản

Một khi bạn đã thoải mái với các node thiết yếu và workflow cơ bản, đây là những gì để học tiếp theo:

Kỹ Thuật Nâng Cao:

Nâng Cao Workflow:

Custom Nodes:

Kết Luận: Làm Chủ Cơ Bản Trước Khi Tiến Tới

ComfyUI trở nên dễ dàng hơn đáng kể một khi bạn hiểu các khối xây dựng cốt lõi này. Đừng cố học mọi node cùng một lúc - chỉ cần làm chủ workflow text-to-image cơ bản đầu tiên:

  1. Load Checkpoint
  2. CLIP Text Encode (dương và âm)
  3. Empty Latent Image
  4. KSampler
  5. VAE Decode
  6. Save Image

Một khi workflow này cảm thấy tự nhiên, bạn có thể thêm LoRA, ControlNet, và các kỹ thuật nâng cao khác từng cái một. Mỗi tính năng mới xây dựng trên cùng một nền tảng.

Hành động tiếp theo: Tạo workflow đầu tiên của bạn sử dụng chính xác 7 node này. Thử nghiệm với các prompt khác nhau. Điều chỉnh các cài đặt. Hiểu cách mọi thứ kết nối. Đây là nền tảng để trở nên thành thạo ComfyUI thực sự.

Câu Hỏi Thường Gặp

Tôi cần bao nhiêu node để bắt đầu với ComfyUI?

Bạn chỉ cần 6-7 node cốt lõi để workflow tạo ảnh cơ bản: Load Checkpoint, CLIP Text Encode (dương và âm), Empty Latent Image, KSampler, VAE Decode, và Save Image. Làm chủ những node này trước khi thêm phức tạp.

Sự khác biệt giữa LATENT và IMAGE là gì?

LATENT là biểu diễn nén mà model làm việc với (hiệu quả hơn nhưng không thể xem được). IMAGE là pixel thực tế bạn có thể xem và lưu. Bạn sử dụng VAE Decode để chuyển đổi từ LATENT sang IMAGE, và VAE Encode để đi theo hướng khác.

Tại sao tôi cần cả prompt dương và âm?

Prompt dương nói với AI tạo cái gì. Prompt âm nói với AI tránh cái gì. Prompt âm giúp ngăn ngừa các vấn đề chất lượng phổ biến như mờ, artifacts, hoặc các phần tử không mong muốn. Điều này cải thiện đáng kể chất lượng đầu ra.

Các cài đặt KSampler nào tôi nên sử dụng?

Đối với người mới bắt đầu, bắt đầu với: steps=25, cfg=7.5, sampler_name="dpm_2m", scheduler="karras". Cài đặt này cân bằng tốt giữa chất lượng và tốc độ. Điều chỉnh CFG cao hơn (8-10) để tuân theo prompt gần hơn, hoặc thấp hơn (6-7) cho kết quả sáng tạo hơn.

Làm cách nào để tái tạo cùng một ảnh?

Sử dụng cùng một số seed trong KSampler. Thay vì -1 (ngẫu nhiên), nhập số seed cụ thể. Sử dụng cùng seed với cùng prompt và cài đặt tạo ra ảnh giống hệt nhau. Điều này quan trọng cho việc lặp và tinh chỉnh.

Model checkpoint khác với LoRA như thế nào?

Checkpoint là model AI đầy đủ (2-7GB) tạo ra ảnh. LoRA là các sửa đổi nhỏ (10-200MB) điều chỉnh phong cách hoặc nội dung của checkpoint. Bạn luôn cần một checkpoint, nhưng LoRA là tùy chọn để điều chỉnh chi tiết.

Tôi có thể sử dụng nhiều LoRA cùng lúc không?

Có! Xếp các node LoRA Loader với nhau. MODEL và CLIP chảy qua mỗi LoRA tuần tự. Mỗi LoRA thêm ảnh hưởng của nó. Chỉ cần biết rằng quá nhiều LoRA (hơn 3-4) có thể xung đột hoặc làm chậm quá trình tạo.

Tại sao tạo của tôi mất quá lâu?

Thời gian tạo phụ thuộc vào: độ phân giải (cao hơn = chậm hơn), số lượng steps (nhiều hơn = chậm hơn), hardware (GPU tốt hơn = nhanh hơn), và model (SDXL chậm hơn SD1.5). Giảm độ phân giải hoặc steps để kiểm tra nhanh hơn.

Các màu kết nối node có nghĩa là gì?

Các màu sắc hiển thị các loại dữ liệu tương thích: Tím (MODEL), Vàng (CLIP), Hồng (VAE), Trắng (LATENT), Xanh lá (IMAGE). Chỉ kết nối đầu ra và đầu vào khớp màu. ComfyUI sẽ từ chối kết nối không tương thích.

Làm cách nào để chia sẻ workflow của tôi với người khác?

Lưu workflow của bạn dưới dạng file JSON (Save hoặc Export). Người khác có thể tải nó vào ComfyUI của họ. Nhưng họ cần cùng các model checkpoint, LoRA, và custom node được cài đặt hoặc workflow sẽ hiển thị các node bị thiếu với văn bản đỏ.

Sẵn Sàng Tạo Influencer AI Của Bạn?

Tham gia cùng 115 học viên đang thành thạo ComfyUI và tiếp thị influencer AI trong khóa học 51 bài đầy đủ của chúng tôi.

Giá sớm kết thúc trong:
--
Ngày
:
--
Giờ
:
--
Phút
:
--
Giây
Đặt Chỗ Của Bạn - $199
Tiết Kiệm $200 - Giá Tăng Lên $399 Vĩnh Viễn