Panduan Lengkap Training LoRA 2025 - Berapa Banyak Headshot dan Body Shot yang Benar-Benar Anda Butuhkan?
Kuasai training LoRA dengan panduan definitif 2025 ini. Pelajari pembagian dataset optimal antara headshot dan body shot, strategi training yang telah diuji, dan hasil nyata dari dataset 100+ gambar.

Anda siap melatih LoRA karakter pertama Anda, tetapi internet memberikan saran yang sangat bertentangan. Beberapa tutorial mengatakan 5-10 gambar sudah cukup, yang lain menuntut 200+. Tidak ada yang sepakat tentang berapa banyak yang harus berupa headshot versus full body shot. Dan bagaimana jika Anda ingin melatih LoRA yang menangani konten SFW dan NSFW?
Setelah menguji puluhan sesi training dengan dataset mulai dari 20 hingga 200+ gambar, pola yang jelas muncul tentang apa yang benar-benar berhasil. Kebenarannya? Ukuran dan komposisi dataset sangat penting, tetapi konfigurasi optimal sepenuhnya bergantung pada apa yang Anda inginkan dari LoRA Anda.
Panduan ini memotong kebingungan dengan strategi teruji dan nyata untuk membangun dataset training LoRA yang menghasilkan hasil yang konsisten dan berkualitas tinggi. Untuk menggunakan LoRA yang telah Anda latih dalam workflow ComfyUI, lihat panduan dasar ComfyUI dan custom node esensial kami.
Memahami Fundamental Training LoRA - Apa yang Benar-Benar Penting
Sebelum menyelami spesifikasi dataset, memahami apa yang dipelajari LoRA membantu Anda membuat keputusan yang tepat tentang komposisi data training.
Apa yang Sebenarnya Dipelajari LoRA: LoRA (Low-Rank Adaptations) belajar memodifikasi output model dasar dengan menangkap pola spesifik pada data training Anda. Mereka mempelajari fitur wajah, proporsi tubuh, gaya pakaian, preferensi pencahayaan, dan karakteristik artistik yang ada dalam dataset Anda.
Semakin konsisten pola-pola ini muncul, semakin baik LoRA menangkap dan mereproduksinya.
Mengapa Komposisi Dataset Penting:
Karakteristik Dataset | Dampak pada LoRA | Pertimbangan Training |
---|---|---|
Jumlah gambar | Kekuatan konsistensi | Lebih banyak gambar = konsistensi lebih baik (sampai titik tertentu) |
Variasi sudut | Fleksibilitas pose | Lebih banyak sudut = output lebih serbaguna |
Subjek konsisten | Preservasi identitas | Subjek sama = retensi karakter lebih baik |
Background beragam | Fleksibilitas scene | Background bervariasi = adaptasi lebih baik |
Variasi pakaian | Rentang gaya | Lebih banyak variasi = kurang overfitting pakaian |
Masalah Overfitting: Terlalu banyak gambar serupa menyebabkan overfitting - LoRA menghafal foto spesifik daripada mempelajari fitur karakter umum. Ini menciptakan masalah ketika Anda mencoba menghasilkan scene yang berbeda dari data training Anda.
Keragaman dalam sudut, pencahayaan, dan konteks mencegah overfitting sambil mempertahankan konsistensi karakter.
Kualitas vs Kuantitas: Sepuluh gambar berkualitas tinggi, tersusun dengan baik, dan bervariasi mengalahkan lima puluh selfie yang hampir identik. Kualitas, variasi, dan konsistensi lebih penting daripada jumlah gambar mentah.
Ini tidak berarti lebih banyak gambar tidak bisa membantu - ini berarti melempar gambar acak ke training tidak akan menghasilkan hasil yang lebih baik.
Waktu dan Sumber Daya Training:
Ukuran Dataset | Waktu Training (RTX 3090) | VRAM yang Dibutuhkan | Storage | Biaya (Cloud) |
---|---|---|---|---|
20 gambar | 30-60 menit | 10-12GB | 100-200MB | $2-5 |
50 gambar | 1-2 jam | 12-16GB | 250-500MB | $5-10 |
100 gambar | 2-4 jam | 16-20GB | 500MB-1GB | $10-20 |
200+ gambar | 4-8 jam | 20-24GB | 1-2GB | $20-40 |
Memahami persyaratan sumber daya ini membantu Anda merencanakan sesi training secara efektif. Jika Anda bekerja dengan VRAM terbatas, lihat panduan lengkap survival low-VRAM kami untuk strategi optimasi.
Untuk pengguna yang menginginkan LoRA berkualitas tanpa mengelola infrastruktur training, platform seperti Apatero.com menyediakan antarmuka training yang efisien dengan optimasi otomatis.
Formula yang Telah Diuji - Ukuran Dataset yang Benar-Benar Berhasil
Berdasarkan pengujian ekstensif melalui puluhan sesi training, berikut adalah konfigurasi dataset yang secara konsisten menghasilkan hasil berkualitas tinggi untuk berbagai jenis LoRA.
LoRA Khusus Wajah (Headshot/Portrait Saja): Jika tujuan Anda adalah menghasilkan headshot dan potret setengah badan, Anda tidak memerlukan gambar full-body. Fokus sepenuhnya pada konsistensi wajah.
Konfigurasi Optimal: 100+ gambar fokus wajah
- 70-80 close-up headshot (bahu ke atas)
- 20-30 potret setengah badan (pinggang ke atas)
- Variasi ekspresi, sudut, dan pencahayaan
- Subjek konsisten di semua gambar
Hasil Nyata: Dalam pengujian, 100+ gambar wajah menghasilkan konsistensi wajah yang sangat baik dengan preservasi identitas yang kuat di berbagai prompt, gaya, dan konteks. LoRA secara andal menghasilkan wajah karakter yang dapat dikenali dalam scene yang bervariasi. Untuk kreasi karakter visual novel yang memerlukan konsistensi ekstrem, lihat juga panduan VNCCS kami.
Dataset yang lebih kecil (20-30 gambar wajah) berhasil tetapi menunjukkan konsistensi yang lebih lemah dan sesekali terjadi drift fitur wajah.
LoRA Full-Body (Karakter Lengkap): Untuk menghasilkan gambar full-body dengan penampilan karakter yang konsisten dari kepala hingga kaki, Anda memerlukan data training proporsi tubuh.
Konfigurasi Optimal: 100+ total gambar split 50/50
- 50+ headshot dan potret close-up
- 50+ full-body shot (kepala hingga kaki terlihat)
- Campuran pose, pakaian, dan konteks
- Karakter konsisten di semua gambar
Mengapa Split 50/50 Berhasil: Pendekatan seimbang ini memastikan LoRA mempelajari detail wajah dari close-up sambil memahami proporsi tubuh dari full-body shot. Condong terlalu berat ke salah satu tipe menciptakan kelemahan.
Terlalu banyak headshot dan LoRA kesulitan dengan generasi body. Terlalu banyak full-body shot dan konsistensi wajah menurun.
LoRA Multi-Purpose (SFW + NSFW): Untuk LoRA yang menangani konten safe-for-work dan dewasa dengan representasi karakter yang konsisten, pemisahan dan volume dataset sangat penting.
Konfigurasi Optimal: 200+ total gambar split berdasarkan tipe konten
- 100+ gambar SFW (50+ headshot, 50+ body shot)
- 100+ gambar NSFW (50+ headshot, 50+ body shot)
- Pertahankan keseimbangan sudut dan variasi dalam setiap kategori
- Karakter yang sama di semua gambar
Mengapa Training NSFW Membutuhkan Lebih Banyak Gambar: Model memiliki pengetahuan yang lebih sedikit tentang komposisi NSFW, memerlukan lebih banyak data training untuk mempelajari pola-pola ini sambil mempertahankan konsistensi karakter.
Split 100/100 memastikan representasi yang memadai dari kedua tipe konten tanpa LoRA overfitting ke salah satu kategori.
Hasil Testing:
Tipe Dataset | Jumlah Gambar | Konsistensi Wajah | Konsistensi Body | Versatilitas | Kualitas Keseluruhan |
---|---|---|---|---|---|
Khusus wajah | 100+ wajah | Sangat baik | N/A | Sedang | Sangat baik untuk headshot |
Full-body | Split 50/50 (100 total) | Sangat baik | Sangat baik | Tinggi | Sangat baik keseluruhan |
SFW+NSFW | Split 100/100 (200 total) | Sangat baik | Sangat baik | Sangat Tinggi | Sangat baik kedua kategori |
Dataset kecil | 20-30 gambar | Baik | Lemah | Rendah | Dapat digunakan tapi terbatas |
Dataset Minimum yang Layak: Meskipun 100+ gambar adalah optimal, Anda dapat melatih LoRA yang dapat digunakan dengan 20-30 gambar berkualitas tinggi dan beragam. Harapkan konsistensi yang lebih lemah dan versatilitas yang kurang, tetapi LoRA akan menangkap fitur karakter dasar.
Pendekatan minimal ini berfungsi untuk proyek pribadi dan eksperimen tetapi tidak disarankan untuk pekerjaan profesional atau komersial.
Persiapan Dataset - Membangun Training Set Anda
Persiapan dataset berkualitas sama pentingnya dengan kuantitas. Berikut cara membangun training set yang menghasilkan LoRA yang sangat baik.
Kriteria Pemilihan Gambar:
Kriteria | Mengapa Penting | Cara Implementasi |
---|---|---|
Subjek konsisten | Preservasi identitas | Orang/karakter yang sama di semua gambar |
Sudut bervariasi | Fleksibilitas pose | Tampilan depan, 3/4, samping, belakang |
Ekspresi berbeda | Rentang emosional | Senang, netral, serius, dll. |
Pencahayaan beragam | Adaptasi pencahayaan | Natural, studio, dramatis, lembut |
Banyak outfit | Hindari overfitting pakaian | Setidaknya 5-10 outfit berbeda |
Background bersih | Fokus pada subjek | Kompleksitas background minimal |
Distribusi Aspect Ratio: Training LoRA modern menangani berbagai aspect ratio. Variasikan data training Anda agar sesuai dengan cara Anda akan menggunakan LoRA.
Distribusi yang Disarankan:
- 40% square (1:1) - headshot, close-up
- 30% portrait (3:4 atau 2:3) - full-body berdiri
- 20% landscape (4:3 atau 3:2) - full-body action
- 10% ultra-wide atau ultra-tall - komposisi kreatif
Persyaratan Kualitas Gambar:
Alur Kerja ComfyUI Gratis
Temukan alur kerja ComfyUI gratis dan open source untuk teknik dalam artikel ini. Open source itu kuat.
Faktor Kualitas | Minimum | Disarankan | Catatan |
---|---|---|---|
Resolusi | 512x512 | 1024x1024+ | Lebih tinggi lebih baik |
Fokus | Subjek tajam | Subjek sangat tajam | Blur menurunkan kualitas training |
Pencahayaan | Fitur terlihat | Diterangi dengan baik, detail jelas | Hindari bayangan berat |
Kompresi | JPEG ringan | PNG atau JPEG berkualitas tinggi | Hindari artifact kompresi |
Apa yang Harus Dihindari dalam Data Training: Jangan sertakan gambar yang difilter atau diedit berat - filter Instagram membingungkan training. Hindari gambar dengan banyak orang kecuali Anda dapat crop ke subjek tunggal. Lewati gambar di mana subjek sebagian terhalang atau terpotong. Kecualikan gambar resolusi rendah atau terkompresi berat.
Memberi Caption pada Dataset Anda:
Pendekatan Captioning | Kelebihan | Kekurangan | Terbaik Untuk |
---|---|---|---|
Auto-captioning (BLIP) | Cepat, konsisten | Deskripsi generik | Dataset besar |
Manual captioning | Presisi, detail | Memakan waktu | Fokus kualitas |
Pendekatan hybrid | Seimbang | Usaha sedang | Sebagian besar proyek |
Struktur Direktori: Organisir dataset Anda secara logis untuk tool training. Buat folder training_dataset dengan subfolder untuk kategori headshots, body_shots, sfw, dan nsfw. Setiap file gambar harus memiliki file caption .txt yang sesuai dengan nama yang sama.
Sebagian besar tool training mengharapkan gambar dan file caption .txt yang sesuai dalam direktori yang sama.
Parameter Training yang Benar-Benar Penting
Di luar komposisi dataset, parameter training secara signifikan mempengaruhi kualitas LoRA. Berikut adalah konfigurasi teruji yang secara konsisten menghasilkan hasil yang baik.
Parameter Training Inti:
Parameter | Dataset Kecil (20-30) | Dataset Sedang (50-100) | Dataset Besar (100+) |
---|---|---|---|
Training steps | 1000-1500 | 2000-3000 | 3000-5000 |
Learning rate | 1e-4 to 5e-4 | 5e-5 to 1e-4 | 1e-5 to 5e-5 |
Batch size | 1-2 | 2-4 | 4-8 |
Network rank | 8-16 | 16-32 | 32-64 |
Network alpha | 8 | 16 | 32 |
Dampak Learning Rate: Learning rate mengontrol seberapa agresif LoRA belajar dari data training. Terlalu tinggi menyebabkan overfitting dan ketidakstabilan. Terlalu rendah berarti pembelajaran tidak memadai bahkan dengan banyak step.
Mulai dengan learning rate konservatif (1e-4) dan kurangi untuk dataset lebih besar untuk mencegah overfitting.
Penentuan Jumlah Step: Hitung total step sebagai: (jumlah_gambar × epoch) / batch_size
Untuk 100 gambar dengan 30 epoch dan batch size 2: (100 × 30) / 2 = 1500 step
Sebagian besar tool training menghitung ini secara otomatis berdasarkan pengaturan epoch Anda.
Penjelasan Network Rank:
Rank | Parameter yang Dilatih | Waktu Training | Kualitas | Ukuran File |
---|---|---|---|---|
8 | Minimal | Cepat | Baik | Kecil (~10MB) |
16 | Rendah | Sedang | Lebih baik | Sedang (~20MB) |
32 | Sedang | Lebih lambat | Sangat baik | Standar (~40MB) |
64 | Tinggi | Lambat | Diminishing returns | Besar (~80MB) |
Rank yang lebih tinggi memungkinkan LoRA mempelajari fitur yang lebih kompleks tetapi memerlukan lebih banyak data training untuk menghindari overfitting.
Perbandingan Platform Training:
Platform | Kemudahan Penggunaan | Kontrol | Biaya | Terbaik Untuk |
---|---|---|---|---|
Kohya GUI (local) | Sedang | Lengkap | Gratis (biaya GPU) | Pengguna teknis |
CivitAI training | Mudah | Terbatas | Berbasis kredit | Pemula |
Apatero.com | Sangat mudah | Teroptimasi | Langganan | Pekerjaan profesional |
Google Colab | Sedang | Tinggi | Gratis/berbayar | Eksperimen |
Memantau Progress Training: Perhatikan tanda overfitting - training loss mendekati nol sementara validation loss meningkat mengindikasikan overfitting. Generasi sampel setiap beberapa ratus step untuk memvisualisasikan progress pembelajaran.
Hentikan training ketika kualitas sampel mencapai plateau - step tambahan tidak akan meningkatkan hasil.
Ingin melewati kerumitan? Apatero memberi Anda hasil AI profesional secara instan tanpa pengaturan teknis.
Kesalahan Training Umum dan Cara Menghindarinya
Bahkan kreator berpengalaman membuat kesalahan training yang menurunkan kualitas LoRA. Berikut adalah masalah paling umum dan solusinya.
Kesalahan 1 - Variasi Dataset Tidak Cukup:
Masalah | Gejala | Solusi |
---|---|---|
Semua sudut sama | Hanya bekerja dari satu sudut pandang | Sertakan sudut depan, 3/4, samping, belakang |
Outfit yang sama | LoRA selalu menghasilkan outfit itu | Gunakan 5-10+ outfit berbeda |
Background serupa | Overfit ke scene spesifik | Variasikan background secara signifikan |
Ekspresi identik | Rentang emosional terbatas | Sertakan ekspresi bervariasi |
Kesalahan 2 - Overfitting dari Terlalu Banyak Gambar Serupa: Training pada 100 selfie yang hampir identik menghasilkan LoRA yang hanya bekerja untuk pose dan pencahayaan spesifik itu. Model menghafal foto daripada mempelajari fitur karakter.
Solusi: Kurasi dataset untuk keragaman maksimum dalam representasi karakter yang konsisten.
Kesalahan 3 - Subjek Tidak Konsisten: Menggunakan beberapa orang atau karakter berbeda dalam satu dataset membingungkan training. LoRA mencoba mempelajari semua subjek secara bersamaan, menghasilkan hasil yang tidak konsisten.
Solusi: Satu LoRA = satu subjek. Latih LoRA terpisah untuk karakter berbeda.
Kesalahan 4 - Learning Rate Salah:
Learning Rate | Hasil | Perbaikan |
---|---|---|
Terlalu tinggi (1e-3+) | Training tidak stabil, overfitting | Kurangi ke 1e-4 atau lebih rendah |
Terlalu rendah (1e-6) | Pembelajaran tidak memadai | Tingkatkan ke 5e-5 hingga 1e-4 |
Kesalahan 5 - Mengabaikan Metrik Training: Menjalankan training secara membabi buta tanpa memantau kurva loss menyebabkan hasil suboptimal. Training mungkin overfit jauh sebelum selesai atau mungkin memerlukan lebih banyak step dari yang direncanakan awalnya.
Solusi: Periksa output sampel setiap 200-500 step dan pantau kurva loss.
Kesalahan 6 - Gambar Sumber Berkualitas Rendah:
Masalah Kualitas | Dampak | Solusi |
---|---|---|
Resolusi rendah | Output LoRA blur | Gunakan gambar sumber 1024px+ |
Kompresi berat | Artifact dalam generasi | Gunakan PNG atau JPEG berkualitas tinggi |
Pencahayaan buruk | Fitur tidak konsisten | Hanya gambar sumber yang diterangi dengan baik |
Kesalahan 7 - Dataset Terlalu Kecil untuk Kompleksitas: Mencoba melatih LoRA multi-style, multi-outfit, multi-konteks dengan 20 gambar tidak memberikan data yang cukup bagi model untuk mempelajari semua variasi tersebut.
Solusi: Sesuaikan ukuran dataset dengan tujuan kompleksitas. LoRA karakter sederhana = 20-30 gambar. LoRA serbaguna kompleks = 100+ gambar. Untuk kesalahan umum lainnya yang harus dihindari, lihat panduan kami tentang 10 kesalahan pemula ComfyUI yang umum.
Strategi Training Lanjutan dan Optimasi
Di luar training dasar, teknik lanjutan mengoptimalkan kualitas dan versatilitas LoRA.
Training Multi-Concept: Melatih satu LoRA pada beberapa konsep terkait (karakter yang sama dalam gaya berbeda) memerlukan pemisahan dataset yang hati-hati dan peningkatan jumlah gambar.
Pendekatan: 50+ gambar per konsep/gaya yang ingin Anda tangkap. Gunakan kata kunci caption yang berbeda untuk setiap konsep untuk membantu LoRA membedakan.
Bergabung dengan 115 anggota kursus lainnya
Buat Influencer AI Ultra-Realistis Pertama Anda dalam 51 Pelajaran
Buat influencer AI ultra-realistis dengan detail kulit yang hidup, selfie profesional, dan adegan kompleks. Dapatkan dua kursus lengkap dalam satu paket. ComfyUI Foundation untuk menguasai teknologi, dan Fanvue Creator Academy untuk belajar memasarkan diri Anda sebagai kreator AI.
Progressive Training: Mulai training dengan learning rate rendah dan network rank kecil, kemudian tingkatkan keduanya secara bertahap. Ini membangun fondasi yang stabil sebelum mempelajari detail kompleks.
Implementasi:
- Fase 1: Rank 8, LR 5e-5, 500 step
- Fase 2: Rank 16, LR 1e-4, 1000 step
- Fase 3: Rank 32, LR 5e-5, 1500 step
Augmentasi Dataset:
Teknik | Tujuan | Implementasi |
---|---|---|
Horizontal flip | Gandakan ukuran dataset | Auto-enable di tool training |
Variasi brightness | Ketahanan pencahayaan | Parameter tool training |
Variasi crop | Fleksibilitas komposisi | Random crop selama training |
Color jitter | Ketahanan warna | Tool training lanjutan |
Gambar Regularization: Sertakan gambar generik dari subjek serupa (bukan karakter spesifik Anda) untuk mencegah overfitting dan mempertahankan kemampuan model.
Rasio: 1 gambar regularization per 2-3 gambar training. Contoh: 100 gambar karakter + 40 gambar regularization.
Pembobotan Tag: Gunakan tag caption yang dibobotkan untuk menekankan fitur penting.
Contoh caption: (masterpiece:1.3), (character_name:1.5), blue eyes, blonde hair, red dress
Bobot memberitahu training untuk menekankan fitur yang diberi tag tersebut lebih kuat.
Pemilihan Checkpoint:
Model Dasar | Terbaik Untuk | Pertimbangan Training |
---|---|---|
SD 1.5 | General purpose | Matang, sumber daya training ekstensif |
SDXL | Kualitas tinggi | Memerlukan lebih banyak VRAM, training lebih lama |
FLUX | Cutting edge | Kualitas terbaik, persyaratan sumber daya tertinggi |
Model anime | Anime/manga | Optimasi spesifik gaya |
Training Multi-Resolusi: Latih pada resolusi yang bervariasi untuk meningkatkan fleksibilitas LoRA. Sertakan gambar pada 512x512, 768x768, 1024x1024, dan rasio non-square.
Ini menghasilkan LoRA yang bekerja dengan baik di berbagai resolusi generasi.
Testing dan Iterasi LoRA Anda
Training tidak berakhir ketika proses selesai. Testing sistematis mengungkapkan kekuatan, kelemahan, dan peluang iterasi.
Protokol Testing Awal:
Tipe Test | Tujuan | Contoh Prompt |
---|---|---|
Test identitas | Verifikasi pengenalan karakter | "photo of [character], neutral expression" |
Test sudut | Periksa kemampuan multi-sudut | "3/4 view of [character]", "side profile" |
Test gaya | Versatilitas di berbagai gaya | "oil painting of [character]", "anime [character]" |
Test konteks | Adaptasi scene | "[character] in forest", "[character] in city" |
Test ekspresi | Rentang emosional | "smiling [character]", "angry [character]" |
Kriteria Penilaian Kualitas:
Kriteria | Buruk | Dapat Diterima | Sangat Baik |
---|---|---|---|
Konsistensi wajah | Fitur bervariasi signifikan | Umumnya dapat dikenali | Sangat konsisten |
Proporsi tubuh | Terdistorsi atau salah | Sebagian besar benar | Akurat dan konsisten |
Fleksibilitas pakaian | Terjebak pada outfit training | Beberapa fleksibilitas | Sepenuhnya dapat disesuaikan |
Adaptabilitas gaya | Hanya bekerja dalam satu gaya | Bekerja dalam 2-3 gaya | Bekerja di banyak gaya |
Mengidentifikasi Overfitting: Test dengan prompt yang sangat berbeda dari data training. Jika LoRA kesulitan menghasilkan apa pun di luar konteks training, overfitting terjadi.
Contoh: Jika semua gambar training menunjukkan scene indoor dan LoRA gagal menghasilkan scene outdoor, model overfit ke konteks indoor.
Strategi Iterasi:
Masalah yang Diidentifikasi | Akar Penyebab | Penyesuaian Training Berikutnya |
---|---|---|
Konsistensi wajah lemah | Data training wajah tidak cukup | Tambahkan 20-30 headshot lagi |
Proporsi tubuh buruk | Terlalu sedikit gambar full-body | Tingkatkan persentase body shot |
Overfitting pakaian | Variasi outfit tidak cukup | Tambahkan gambar dengan lebih banyak outfit |
Sudut terbatas | Data training dari sudut terbatas | Tambahkan gambar sudut bervariasi |
Manajemen Versi: Simpan checkpoint training pada jumlah step yang berbeda. Ini menyediakan beberapa versi LoRA untuk diuji dan dipilih.
Banyak kreator menemukan LoRA terbaik mereka berasal dari 70-80% melalui training daripada checkpoint akhir.
Umpan Balik Komunitas: Bagikan generasi test di komunitas training LoRA untuk umpan balik. Trainer berpengalaman dengan cepat mengidentifikasi masalah dan menyarankan perbaikan.
Contoh Training Nyata dan Hasil
Berikut adalah sesi training spesifik dengan konfigurasi dan hasil yang tepat untuk mendemonstrasikan prinsip-prinsip ini dalam praktik.
Contoh 1 - LoRA Portrait:
- Dataset: 120 gambar fokus wajah (90 headshot, 30 setengah badan)
- Parameter: Rank 32, LR 1e-4, 3000 step, base SDXL
- Hasil: Konsistensi wajah sangat baik di berbagai prompt dan gaya. Bobot LoRA 0.7-0.9 menghasilkan hasil terbaik. Kesulitan dengan generasi full-body seperti yang diharapkan.
- Penggunaan Terbaik: Generasi headshot, pembuatan avatar, seni potret. Untuk workflow face swap, lihat panduan face swap ComfyUI kami
Contoh 2 - LoRA Karakter Lengkap:
- Dataset: 100 gambar (50 headshot, 50 full-body)
- Parameter: Rank 32, LR 5e-5, 2500 step, base SD 1.5
- Hasil: Keseimbangan yang baik antara konsistensi wajah dan tubuh. Serbaguna di berbagai scene dan konteks. Sedikit drift wajah pada resolusi sangat tinggi.
- Penggunaan Terbaik: Generasi karakter umum, scene bervariasi
Contoh 3 - LoRA Multi-Purpose (SFW/NSFW):
- Dataset: 220 gambar (110 SFW split 55/55, 110 NSFW split 55/55)
- Parameter: Rank 64, LR 1e-5, 5000 step, base SDXL
- Hasil: Konsistensi sangat baik di kedua tipe konten. Karakter dapat dikenali di semua konteks. Waktu training sedikit lebih lama dibenarkan oleh versatilitas.
- Penggunaan Terbaik: Pekerjaan karakter komersial, representasi karakter komprehensif
Contoh 4 - Dataset Minimal:
- Dataset: 25 gambar (15 headshot, 10 body shot)
- Parameter: Rank 16, LR 1e-4, 1500 step, base SD 1.5
- Hasil: Karakter dapat dikenali tetapi detail tidak konsisten. Bekerja dengan baik pada bobot LoRA spesifik (0.8-0.9) tetapi lemah di luar rentang itu. Cenderung menghasilkan outfit training.
- Penggunaan Terbaik: Proyek pribadi, konsep karakter cepat
Perbandingan Biaya Training:
Contoh | Waktu Training | Biaya Cloud | Rating Kualitas | Versatilitas |
---|---|---|---|---|
Portrait | 3 jam | $15 | 9/10 | Sedang |
Karakter Lengkap | 2.5 jam | $12 | 8.5/10 | Tinggi |
Multi-Purpose | 5 jam | $25 | 9.5/10 | Sangat Tinggi |
Minimal | 1.5 jam | $8 | 6.5/10 | Rendah |
Pelajaran dari Testing: Lompatan dari 25 ke 100 gambar secara dramatis meningkatkan konsistensi dan versatilitas. Di luar 100 gambar, perbaikan menjadi inkremental daripada transformatif.
Split 50/50 untuk LoRA full-body secara konsisten mengungguli rasio lain. Training pada SDXL menghasilkan kualitas lebih tinggi tetapi memerlukan lebih banyak VRAM dan waktu dibandingkan SD 1.5.
Kesimpulan - Membangun Dataset Training yang Berhasil
Komposisi dataset training LoRA membuat perbedaan antara hasil biasa-biasa saja dan konsistensi karakter yang sangat baik. Formula teruji dalam panduan ini memberikan titik awal untuk kebutuhan spesifik Anda.
Poin Penting: LoRA khusus wajah bekerja sangat baik dengan 100+ gambar fokus wajah. LoRA full-body membutuhkan 100+ gambar split 50/50 antara headshot dan body shot. LoRA multi-purpose yang menangani konten SFW dan NSFW mendapat manfaat dari 200+ gambar split 100/100. Kualitas dan variasi lebih penting daripada jumlah gambar mentah.
Strategi Training Anda: Mulai dengan tujuan yang jelas - apa yang akan dihasilkan LoRA ini? Sesuaikan ukuran dan komposisi dataset dengan tujuan tersebut. Kurasi untuk kualitas dan keragaman daripada kuantitas. Test secara sistematis dan iterasi berdasarkan hasil aktual.
Pertimbangan Platform: Training lokal memberikan kontrol penuh tetapi memerlukan pengaturan teknis dan sumber daya GPU. Platform cloud seperti Apatero.com menyederhanakan proses dengan pipeline training yang teroptimasi. Training CivitAI menawarkan antarmuka ramah pemula dengan workflow terpandu. Untuk menerapkan LoRA yang telah Anda latih dalam workflow produksi, lihat panduan deployment workflow to production API kami.
Apa Selanjutnya: Bangun dataset training pertama Anda mengikuti panduan ini. Mulai dengan dataset 50 gambar yang sederhana untuk mempelajari prosesnya, kemudian tingkatkan berdasarkan hasil. Bergabunglah dengan komunitas training LoRA untuk berbagi hasil dan belajar dari trainer berpengalaman.
Intinya: LoRA yang hebat berasal dari persiapan dataset yang bijaksana, parameter training yang tepat, dan iterasi sistematis. Ikuti strategi teruji ini, dan Anda akan membuat LoRA yang konsisten dan serbaguna yang menghidupkan karakter Anda di konteks apa pun.
Data training Anda mendefinisikan kemampuan LoRA Anda. Investasikan waktu dalam persiapan dataset, dan hasilnya akan mencerminkan kualitas tersebut.
Siap Membuat Influencer AI Anda?
Bergabung dengan 115 siswa yang menguasai ComfyUI dan pemasaran influencer AI dalam kursus lengkap 51 pelajaran kami.
Artikel Terkait

ByteDance FaceCLIP - AI Revolusioner untuk Memahami dan Menghasilkan Wajah Manusia yang Beragam 2025
FaceCLIP dari ByteDance menggabungkan identitas wajah dengan semantik teks untuk kontrol karakter yang belum pernah ada sebelumnya. Panduan lengkap model visi-bahasa ini untuk generasi wajah.

Qwen-Image-Edit 2509 Plus: Pengeditan Gambar yang Lebih Baik dengan Dukungan GGUF
Kuasai Qwen-Image-Edit 2509 Plus di ComfyUI dengan dukungan kuantisasi GGUF. Panduan lengkap mencakup instalasi, workflow pengeditan lanjutan, dan teknik optimasi untuk tahun 2025.

Panduan Lengkap Anda untuk Memulai Generasi Gambar AI di 2025
Temukan jalur generasi gambar AI yang sempurna untuk Anda. Pelajari cara mendefinisikan use case, menilai skillset, memilih tools yang tepat, dan menguasai fundamental pembuatan karya seni AI yang menakjubkan.