/ AI Image Generation / Panduan Lengkap Training LoRA 2025 - Berapa Banyak Headshot dan Body Shot yang Benar-Benar Anda Butuhkan?
AI Image Generation 19 menit baca

Panduan Lengkap Training LoRA 2025 - Berapa Banyak Headshot dan Body Shot yang Benar-Benar Anda Butuhkan?

Kuasai training LoRA dengan panduan definitif 2025 ini. Pelajari pembagian dataset optimal antara headshot dan body shot, strategi training yang telah diuji, dan hasil nyata dari dataset 100+ gambar.

Panduan Lengkap Training LoRA 2025 - Berapa Banyak Headshot dan Body Shot yang Benar-Benar Anda Butuhkan? - Complete AI Image Generation guide and tutorial

Anda siap melatih LoRA karakter pertama Anda, tetapi internet memberikan saran yang sangat bertentangan. Beberapa tutorial mengatakan 5-10 gambar sudah cukup, yang lain menuntut 200+. Tidak ada yang sepakat tentang berapa banyak yang harus berupa headshot versus full body shot. Dan bagaimana jika Anda ingin melatih LoRA yang menangani konten SFW dan NSFW?

Setelah menguji puluhan sesi training dengan dataset mulai dari 20 hingga 200+ gambar, pola yang jelas muncul tentang apa yang benar-benar berhasil. Kebenarannya? Ukuran dan komposisi dataset sangat penting, tetapi konfigurasi optimal sepenuhnya bergantung pada apa yang Anda inginkan dari LoRA Anda.

Panduan ini memotong kebingungan dengan strategi teruji dan nyata untuk membangun dataset training LoRA yang menghasilkan hasil yang konsisten dan berkualitas tinggi. Untuk menggunakan LoRA yang telah Anda latih dalam workflow ComfyUI, lihat panduan dasar ComfyUI dan custom node esensial kami.

Yang Akan Anda Pelajari: Ukuran dataset optimal untuk berbagai jenis dan kasus penggunaan LoRA, rasio headshot-to-body shot yang sempurna berdasarkan tujuan Anda, strategi training teruji untuk LoRA khusus wajah, full-body, dan multi-purpose, cara menyusun dataset 100+ gambar untuk konsistensi karakter SFW/NSFW, teknik persiapan dataset yang mencegah overfitting dan meningkatkan kualitas, serta hasil training nyata dengan jumlah gambar dan komposisi spesifik.

Memahami Fundamental Training LoRA - Apa yang Benar-Benar Penting

Sebelum menyelami spesifikasi dataset, memahami apa yang dipelajari LoRA membantu Anda membuat keputusan yang tepat tentang komposisi data training.

Apa yang Sebenarnya Dipelajari LoRA: LoRA (Low-Rank Adaptations) belajar memodifikasi output model dasar dengan menangkap pola spesifik pada data training Anda. Mereka mempelajari fitur wajah, proporsi tubuh, gaya pakaian, preferensi pencahayaan, dan karakteristik artistik yang ada dalam dataset Anda.

Semakin konsisten pola-pola ini muncul, semakin baik LoRA menangkap dan mereproduksinya.

Mengapa Komposisi Dataset Penting:

Karakteristik Dataset Dampak pada LoRA Pertimbangan Training
Jumlah gambar Kekuatan konsistensi Lebih banyak gambar = konsistensi lebih baik (sampai titik tertentu)
Variasi sudut Fleksibilitas pose Lebih banyak sudut = output lebih serbaguna
Subjek konsisten Preservasi identitas Subjek sama = retensi karakter lebih baik
Background beragam Fleksibilitas scene Background bervariasi = adaptasi lebih baik
Variasi pakaian Rentang gaya Lebih banyak variasi = kurang overfitting pakaian

Masalah Overfitting: Terlalu banyak gambar serupa menyebabkan overfitting - LoRA menghafal foto spesifik daripada mempelajari fitur karakter umum. Ini menciptakan masalah ketika Anda mencoba menghasilkan scene yang berbeda dari data training Anda.

Keragaman dalam sudut, pencahayaan, dan konteks mencegah overfitting sambil mempertahankan konsistensi karakter.

Kualitas vs Kuantitas: Sepuluh gambar berkualitas tinggi, tersusun dengan baik, dan bervariasi mengalahkan lima puluh selfie yang hampir identik. Kualitas, variasi, dan konsistensi lebih penting daripada jumlah gambar mentah.

Ini tidak berarti lebih banyak gambar tidak bisa membantu - ini berarti melempar gambar acak ke training tidak akan menghasilkan hasil yang lebih baik.

Waktu dan Sumber Daya Training:

Ukuran Dataset Waktu Training (RTX 3090) VRAM yang Dibutuhkan Storage Biaya (Cloud)
20 gambar 30-60 menit 10-12GB 100-200MB $2-5
50 gambar 1-2 jam 12-16GB 250-500MB $5-10
100 gambar 2-4 jam 16-20GB 500MB-1GB $10-20
200+ gambar 4-8 jam 20-24GB 1-2GB $20-40

Memahami persyaratan sumber daya ini membantu Anda merencanakan sesi training secara efektif. Jika Anda bekerja dengan VRAM terbatas, lihat panduan lengkap survival low-VRAM kami untuk strategi optimasi.

Untuk pengguna yang menginginkan LoRA berkualitas tanpa mengelola infrastruktur training, platform seperti Apatero.com menyediakan antarmuka training yang efisien dengan optimasi otomatis.

Formula yang Telah Diuji - Ukuran Dataset yang Benar-Benar Berhasil

Berdasarkan pengujian ekstensif melalui puluhan sesi training, berikut adalah konfigurasi dataset yang secara konsisten menghasilkan hasil berkualitas tinggi untuk berbagai jenis LoRA.

LoRA Khusus Wajah (Headshot/Portrait Saja): Jika tujuan Anda adalah menghasilkan headshot dan potret setengah badan, Anda tidak memerlukan gambar full-body. Fokus sepenuhnya pada konsistensi wajah.

Konfigurasi Optimal: 100+ gambar fokus wajah

  • 70-80 close-up headshot (bahu ke atas)
  • 20-30 potret setengah badan (pinggang ke atas)
  • Variasi ekspresi, sudut, dan pencahayaan
  • Subjek konsisten di semua gambar

Hasil Nyata: Dalam pengujian, 100+ gambar wajah menghasilkan konsistensi wajah yang sangat baik dengan preservasi identitas yang kuat di berbagai prompt, gaya, dan konteks. LoRA secara andal menghasilkan wajah karakter yang dapat dikenali dalam scene yang bervariasi. Untuk kreasi karakter visual novel yang memerlukan konsistensi ekstrem, lihat juga panduan VNCCS kami.

Dataset yang lebih kecil (20-30 gambar wajah) berhasil tetapi menunjukkan konsistensi yang lebih lemah dan sesekali terjadi drift fitur wajah.

LoRA Full-Body (Karakter Lengkap): Untuk menghasilkan gambar full-body dengan penampilan karakter yang konsisten dari kepala hingga kaki, Anda memerlukan data training proporsi tubuh.

Konfigurasi Optimal: 100+ total gambar split 50/50

  • 50+ headshot dan potret close-up
  • 50+ full-body shot (kepala hingga kaki terlihat)
  • Campuran pose, pakaian, dan konteks
  • Karakter konsisten di semua gambar

Mengapa Split 50/50 Berhasil: Pendekatan seimbang ini memastikan LoRA mempelajari detail wajah dari close-up sambil memahami proporsi tubuh dari full-body shot. Condong terlalu berat ke salah satu tipe menciptakan kelemahan.

Terlalu banyak headshot dan LoRA kesulitan dengan generasi body. Terlalu banyak full-body shot dan konsistensi wajah menurun.

LoRA Multi-Purpose (SFW + NSFW): Untuk LoRA yang menangani konten safe-for-work dan dewasa dengan representasi karakter yang konsisten, pemisahan dan volume dataset sangat penting.

Konfigurasi Optimal: 200+ total gambar split berdasarkan tipe konten

  • 100+ gambar SFW (50+ headshot, 50+ body shot)
  • 100+ gambar NSFW (50+ headshot, 50+ body shot)
  • Pertahankan keseimbangan sudut dan variasi dalam setiap kategori
  • Karakter yang sama di semua gambar

Mengapa Training NSFW Membutuhkan Lebih Banyak Gambar: Model memiliki pengetahuan yang lebih sedikit tentang komposisi NSFW, memerlukan lebih banyak data training untuk mempelajari pola-pola ini sambil mempertahankan konsistensi karakter.

Split 100/100 memastikan representasi yang memadai dari kedua tipe konten tanpa LoRA overfitting ke salah satu kategori.

Hasil Testing:

Tipe Dataset Jumlah Gambar Konsistensi Wajah Konsistensi Body Versatilitas Kualitas Keseluruhan
Khusus wajah 100+ wajah Sangat baik N/A Sedang Sangat baik untuk headshot
Full-body Split 50/50 (100 total) Sangat baik Sangat baik Tinggi Sangat baik keseluruhan
SFW+NSFW Split 100/100 (200 total) Sangat baik Sangat baik Sangat Tinggi Sangat baik kedua kategori
Dataset kecil 20-30 gambar Baik Lemah Rendah Dapat digunakan tapi terbatas

Dataset Minimum yang Layak: Meskipun 100+ gambar adalah optimal, Anda dapat melatih LoRA yang dapat digunakan dengan 20-30 gambar berkualitas tinggi dan beragam. Harapkan konsistensi yang lebih lemah dan versatilitas yang kurang, tetapi LoRA akan menangkap fitur karakter dasar.

Pendekatan minimal ini berfungsi untuk proyek pribadi dan eksperimen tetapi tidak disarankan untuk pekerjaan profesional atau komersial.

Persiapan Dataset - Membangun Training Set Anda

Persiapan dataset berkualitas sama pentingnya dengan kuantitas. Berikut cara membangun training set yang menghasilkan LoRA yang sangat baik.

Kriteria Pemilihan Gambar:

Kriteria Mengapa Penting Cara Implementasi
Subjek konsisten Preservasi identitas Orang/karakter yang sama di semua gambar
Sudut bervariasi Fleksibilitas pose Tampilan depan, 3/4, samping, belakang
Ekspresi berbeda Rentang emosional Senang, netral, serius, dll.
Pencahayaan beragam Adaptasi pencahayaan Natural, studio, dramatis, lembut
Banyak outfit Hindari overfitting pakaian Setidaknya 5-10 outfit berbeda
Background bersih Fokus pada subjek Kompleksitas background minimal

Distribusi Aspect Ratio: Training LoRA modern menangani berbagai aspect ratio. Variasikan data training Anda agar sesuai dengan cara Anda akan menggunakan LoRA.

Distribusi yang Disarankan:

  • 40% square (1:1) - headshot, close-up
  • 30% portrait (3:4 atau 2:3) - full-body berdiri
  • 20% landscape (4:3 atau 3:2) - full-body action
  • 10% ultra-wide atau ultra-tall - komposisi kreatif

Persyaratan Kualitas Gambar:

Alur Kerja ComfyUI Gratis

Temukan alur kerja ComfyUI gratis dan open source untuk teknik dalam artikel ini. Open source itu kuat.

100% Gratis Lisensi MIT Siap Produksi Beri Bintang & Coba
Faktor Kualitas Minimum Disarankan Catatan
Resolusi 512x512 1024x1024+ Lebih tinggi lebih baik
Fokus Subjek tajam Subjek sangat tajam Blur menurunkan kualitas training
Pencahayaan Fitur terlihat Diterangi dengan baik, detail jelas Hindari bayangan berat
Kompresi JPEG ringan PNG atau JPEG berkualitas tinggi Hindari artifact kompresi

Apa yang Harus Dihindari dalam Data Training: Jangan sertakan gambar yang difilter atau diedit berat - filter Instagram membingungkan training. Hindari gambar dengan banyak orang kecuali Anda dapat crop ke subjek tunggal. Lewati gambar di mana subjek sebagian terhalang atau terpotong. Kecualikan gambar resolusi rendah atau terkompresi berat.

Memberi Caption pada Dataset Anda:

Pendekatan Captioning Kelebihan Kekurangan Terbaik Untuk
Auto-captioning (BLIP) Cepat, konsisten Deskripsi generik Dataset besar
Manual captioning Presisi, detail Memakan waktu Fokus kualitas
Pendekatan hybrid Seimbang Usaha sedang Sebagian besar proyek

Struktur Direktori: Organisir dataset Anda secara logis untuk tool training. Buat folder training_dataset dengan subfolder untuk kategori headshots, body_shots, sfw, dan nsfw. Setiap file gambar harus memiliki file caption .txt yang sesuai dengan nama yang sama.

Sebagian besar tool training mengharapkan gambar dan file caption .txt yang sesuai dalam direktori yang sama.

Parameter Training yang Benar-Benar Penting

Di luar komposisi dataset, parameter training secara signifikan mempengaruhi kualitas LoRA. Berikut adalah konfigurasi teruji yang secara konsisten menghasilkan hasil yang baik.

Parameter Training Inti:

Parameter Dataset Kecil (20-30) Dataset Sedang (50-100) Dataset Besar (100+)
Training steps 1000-1500 2000-3000 3000-5000
Learning rate 1e-4 to 5e-4 5e-5 to 1e-4 1e-5 to 5e-5
Batch size 1-2 2-4 4-8
Network rank 8-16 16-32 32-64
Network alpha 8 16 32

Dampak Learning Rate: Learning rate mengontrol seberapa agresif LoRA belajar dari data training. Terlalu tinggi menyebabkan overfitting dan ketidakstabilan. Terlalu rendah berarti pembelajaran tidak memadai bahkan dengan banyak step.

Mulai dengan learning rate konservatif (1e-4) dan kurangi untuk dataset lebih besar untuk mencegah overfitting.

Penentuan Jumlah Step: Hitung total step sebagai: (jumlah_gambar × epoch) / batch_size

Untuk 100 gambar dengan 30 epoch dan batch size 2: (100 × 30) / 2 = 1500 step

Sebagian besar tool training menghitung ini secara otomatis berdasarkan pengaturan epoch Anda.

Penjelasan Network Rank:

Rank Parameter yang Dilatih Waktu Training Kualitas Ukuran File
8 Minimal Cepat Baik Kecil (~10MB)
16 Rendah Sedang Lebih baik Sedang (~20MB)
32 Sedang Lebih lambat Sangat baik Standar (~40MB)
64 Tinggi Lambat Diminishing returns Besar (~80MB)

Rank yang lebih tinggi memungkinkan LoRA mempelajari fitur yang lebih kompleks tetapi memerlukan lebih banyak data training untuk menghindari overfitting.

Perbandingan Platform Training:

Platform Kemudahan Penggunaan Kontrol Biaya Terbaik Untuk
Kohya GUI (local) Sedang Lengkap Gratis (biaya GPU) Pengguna teknis
CivitAI training Mudah Terbatas Berbasis kredit Pemula
Apatero.com Sangat mudah Teroptimasi Langganan Pekerjaan profesional
Google Colab Sedang Tinggi Gratis/berbayar Eksperimen

Memantau Progress Training: Perhatikan tanda overfitting - training loss mendekati nol sementara validation loss meningkat mengindikasikan overfitting. Generasi sampel setiap beberapa ratus step untuk memvisualisasikan progress pembelajaran.

Hentikan training ketika kualitas sampel mencapai plateau - step tambahan tidak akan meningkatkan hasil.

Ingin melewati kerumitan? Apatero memberi Anda hasil AI profesional secara instan tanpa pengaturan teknis.

Tanpa pengaturan Kualitas sama Mulai dalam 30 detik Coba Apatero Gratis
Tidak perlu kartu kredit

Kesalahan Training Umum dan Cara Menghindarinya

Bahkan kreator berpengalaman membuat kesalahan training yang menurunkan kualitas LoRA. Berikut adalah masalah paling umum dan solusinya.

Kesalahan 1 - Variasi Dataset Tidak Cukup:

Masalah Gejala Solusi
Semua sudut sama Hanya bekerja dari satu sudut pandang Sertakan sudut depan, 3/4, samping, belakang
Outfit yang sama LoRA selalu menghasilkan outfit itu Gunakan 5-10+ outfit berbeda
Background serupa Overfit ke scene spesifik Variasikan background secara signifikan
Ekspresi identik Rentang emosional terbatas Sertakan ekspresi bervariasi

Kesalahan 2 - Overfitting dari Terlalu Banyak Gambar Serupa: Training pada 100 selfie yang hampir identik menghasilkan LoRA yang hanya bekerja untuk pose dan pencahayaan spesifik itu. Model menghafal foto daripada mempelajari fitur karakter.

Solusi: Kurasi dataset untuk keragaman maksimum dalam representasi karakter yang konsisten.

Kesalahan 3 - Subjek Tidak Konsisten: Menggunakan beberapa orang atau karakter berbeda dalam satu dataset membingungkan training. LoRA mencoba mempelajari semua subjek secara bersamaan, menghasilkan hasil yang tidak konsisten.

Solusi: Satu LoRA = satu subjek. Latih LoRA terpisah untuk karakter berbeda.

Kesalahan 4 - Learning Rate Salah:

Learning Rate Hasil Perbaikan
Terlalu tinggi (1e-3+) Training tidak stabil, overfitting Kurangi ke 1e-4 atau lebih rendah
Terlalu rendah (1e-6) Pembelajaran tidak memadai Tingkatkan ke 5e-5 hingga 1e-4

Kesalahan 5 - Mengabaikan Metrik Training: Menjalankan training secara membabi buta tanpa memantau kurva loss menyebabkan hasil suboptimal. Training mungkin overfit jauh sebelum selesai atau mungkin memerlukan lebih banyak step dari yang direncanakan awalnya.

Solusi: Periksa output sampel setiap 200-500 step dan pantau kurva loss.

Kesalahan 6 - Gambar Sumber Berkualitas Rendah:

Masalah Kualitas Dampak Solusi
Resolusi rendah Output LoRA blur Gunakan gambar sumber 1024px+
Kompresi berat Artifact dalam generasi Gunakan PNG atau JPEG berkualitas tinggi
Pencahayaan buruk Fitur tidak konsisten Hanya gambar sumber yang diterangi dengan baik

Kesalahan 7 - Dataset Terlalu Kecil untuk Kompleksitas: Mencoba melatih LoRA multi-style, multi-outfit, multi-konteks dengan 20 gambar tidak memberikan data yang cukup bagi model untuk mempelajari semua variasi tersebut.

Solusi: Sesuaikan ukuran dataset dengan tujuan kompleksitas. LoRA karakter sederhana = 20-30 gambar. LoRA serbaguna kompleks = 100+ gambar. Untuk kesalahan umum lainnya yang harus dihindari, lihat panduan kami tentang 10 kesalahan pemula ComfyUI yang umum.

Strategi Training Lanjutan dan Optimasi

Di luar training dasar, teknik lanjutan mengoptimalkan kualitas dan versatilitas LoRA.

Training Multi-Concept: Melatih satu LoRA pada beberapa konsep terkait (karakter yang sama dalam gaya berbeda) memerlukan pemisahan dataset yang hati-hati dan peningkatan jumlah gambar.

Pendekatan: 50+ gambar per konsep/gaya yang ingin Anda tangkap. Gunakan kata kunci caption yang berbeda untuk setiap konsep untuk membantu LoRA membedakan.

Bergabung dengan 115 anggota kursus lainnya

Buat Influencer AI Ultra-Realistis Pertama Anda dalam 51 Pelajaran

Buat influencer AI ultra-realistis dengan detail kulit yang hidup, selfie profesional, dan adegan kompleks. Dapatkan dua kursus lengkap dalam satu paket. ComfyUI Foundation untuk menguasai teknologi, dan Fanvue Creator Academy untuk belajar memasarkan diri Anda sebagai kreator AI.

Harga early-bird berakhir dalam:
--
Hari
:
--
Jam
:
--
Menit
:
--
Detik
51 Pelajaran • 2 Kursus Lengkap
Pembayaran Sekali
Update Seumur Hidup
Hemat $200 - Harga Naik ke $399 Selamanya
Diskon early-bird untuk siswa pertama kami. Kami terus menambahkan nilai lebih, tetapi Anda mengunci $199 selamanya.
Ramah pemula
Siap produksi
Selalu diperbarui

Progressive Training: Mulai training dengan learning rate rendah dan network rank kecil, kemudian tingkatkan keduanya secara bertahap. Ini membangun fondasi yang stabil sebelum mempelajari detail kompleks.

Implementasi:

  • Fase 1: Rank 8, LR 5e-5, 500 step
  • Fase 2: Rank 16, LR 1e-4, 1000 step
  • Fase 3: Rank 32, LR 5e-5, 1500 step

Augmentasi Dataset:

Teknik Tujuan Implementasi
Horizontal flip Gandakan ukuran dataset Auto-enable di tool training
Variasi brightness Ketahanan pencahayaan Parameter tool training
Variasi crop Fleksibilitas komposisi Random crop selama training
Color jitter Ketahanan warna Tool training lanjutan

Gambar Regularization: Sertakan gambar generik dari subjek serupa (bukan karakter spesifik Anda) untuk mencegah overfitting dan mempertahankan kemampuan model.

Rasio: 1 gambar regularization per 2-3 gambar training. Contoh: 100 gambar karakter + 40 gambar regularization.

Pembobotan Tag: Gunakan tag caption yang dibobotkan untuk menekankan fitur penting.

Contoh caption: (masterpiece:1.3), (character_name:1.5), blue eyes, blonde hair, red dress

Bobot memberitahu training untuk menekankan fitur yang diberi tag tersebut lebih kuat.

Pemilihan Checkpoint:

Model Dasar Terbaik Untuk Pertimbangan Training
SD 1.5 General purpose Matang, sumber daya training ekstensif
SDXL Kualitas tinggi Memerlukan lebih banyak VRAM, training lebih lama
FLUX Cutting edge Kualitas terbaik, persyaratan sumber daya tertinggi
Model anime Anime/manga Optimasi spesifik gaya

Training Multi-Resolusi: Latih pada resolusi yang bervariasi untuk meningkatkan fleksibilitas LoRA. Sertakan gambar pada 512x512, 768x768, 1024x1024, dan rasio non-square.

Ini menghasilkan LoRA yang bekerja dengan baik di berbagai resolusi generasi.

Testing dan Iterasi LoRA Anda

Training tidak berakhir ketika proses selesai. Testing sistematis mengungkapkan kekuatan, kelemahan, dan peluang iterasi.

Protokol Testing Awal:

Tipe Test Tujuan Contoh Prompt
Test identitas Verifikasi pengenalan karakter "photo of [character], neutral expression"
Test sudut Periksa kemampuan multi-sudut "3/4 view of [character]", "side profile"
Test gaya Versatilitas di berbagai gaya "oil painting of [character]", "anime [character]"
Test konteks Adaptasi scene "[character] in forest", "[character] in city"
Test ekspresi Rentang emosional "smiling [character]", "angry [character]"

Kriteria Penilaian Kualitas:

Kriteria Buruk Dapat Diterima Sangat Baik
Konsistensi wajah Fitur bervariasi signifikan Umumnya dapat dikenali Sangat konsisten
Proporsi tubuh Terdistorsi atau salah Sebagian besar benar Akurat dan konsisten
Fleksibilitas pakaian Terjebak pada outfit training Beberapa fleksibilitas Sepenuhnya dapat disesuaikan
Adaptabilitas gaya Hanya bekerja dalam satu gaya Bekerja dalam 2-3 gaya Bekerja di banyak gaya

Mengidentifikasi Overfitting: Test dengan prompt yang sangat berbeda dari data training. Jika LoRA kesulitan menghasilkan apa pun di luar konteks training, overfitting terjadi.

Contoh: Jika semua gambar training menunjukkan scene indoor dan LoRA gagal menghasilkan scene outdoor, model overfit ke konteks indoor.

Strategi Iterasi:

Masalah yang Diidentifikasi Akar Penyebab Penyesuaian Training Berikutnya
Konsistensi wajah lemah Data training wajah tidak cukup Tambahkan 20-30 headshot lagi
Proporsi tubuh buruk Terlalu sedikit gambar full-body Tingkatkan persentase body shot
Overfitting pakaian Variasi outfit tidak cukup Tambahkan gambar dengan lebih banyak outfit
Sudut terbatas Data training dari sudut terbatas Tambahkan gambar sudut bervariasi

Manajemen Versi: Simpan checkpoint training pada jumlah step yang berbeda. Ini menyediakan beberapa versi LoRA untuk diuji dan dipilih.

Banyak kreator menemukan LoRA terbaik mereka berasal dari 70-80% melalui training daripada checkpoint akhir.

Umpan Balik Komunitas: Bagikan generasi test di komunitas training LoRA untuk umpan balik. Trainer berpengalaman dengan cepat mengidentifikasi masalah dan menyarankan perbaikan.

Contoh Training Nyata dan Hasil

Berikut adalah sesi training spesifik dengan konfigurasi dan hasil yang tepat untuk mendemonstrasikan prinsip-prinsip ini dalam praktik.

Contoh 1 - LoRA Portrait:

  • Dataset: 120 gambar fokus wajah (90 headshot, 30 setengah badan)
  • Parameter: Rank 32, LR 1e-4, 3000 step, base SDXL
  • Hasil: Konsistensi wajah sangat baik di berbagai prompt dan gaya. Bobot LoRA 0.7-0.9 menghasilkan hasil terbaik. Kesulitan dengan generasi full-body seperti yang diharapkan.
  • Penggunaan Terbaik: Generasi headshot, pembuatan avatar, seni potret. Untuk workflow face swap, lihat panduan face swap ComfyUI kami

Contoh 2 - LoRA Karakter Lengkap:

  • Dataset: 100 gambar (50 headshot, 50 full-body)
  • Parameter: Rank 32, LR 5e-5, 2500 step, base SD 1.5
  • Hasil: Keseimbangan yang baik antara konsistensi wajah dan tubuh. Serbaguna di berbagai scene dan konteks. Sedikit drift wajah pada resolusi sangat tinggi.
  • Penggunaan Terbaik: Generasi karakter umum, scene bervariasi

Contoh 3 - LoRA Multi-Purpose (SFW/NSFW):

  • Dataset: 220 gambar (110 SFW split 55/55, 110 NSFW split 55/55)
  • Parameter: Rank 64, LR 1e-5, 5000 step, base SDXL
  • Hasil: Konsistensi sangat baik di kedua tipe konten. Karakter dapat dikenali di semua konteks. Waktu training sedikit lebih lama dibenarkan oleh versatilitas.
  • Penggunaan Terbaik: Pekerjaan karakter komersial, representasi karakter komprehensif

Contoh 4 - Dataset Minimal:

  • Dataset: 25 gambar (15 headshot, 10 body shot)
  • Parameter: Rank 16, LR 1e-4, 1500 step, base SD 1.5
  • Hasil: Karakter dapat dikenali tetapi detail tidak konsisten. Bekerja dengan baik pada bobot LoRA spesifik (0.8-0.9) tetapi lemah di luar rentang itu. Cenderung menghasilkan outfit training.
  • Penggunaan Terbaik: Proyek pribadi, konsep karakter cepat

Perbandingan Biaya Training:

Contoh Waktu Training Biaya Cloud Rating Kualitas Versatilitas
Portrait 3 jam $15 9/10 Sedang
Karakter Lengkap 2.5 jam $12 8.5/10 Tinggi
Multi-Purpose 5 jam $25 9.5/10 Sangat Tinggi
Minimal 1.5 jam $8 6.5/10 Rendah

Pelajaran dari Testing: Lompatan dari 25 ke 100 gambar secara dramatis meningkatkan konsistensi dan versatilitas. Di luar 100 gambar, perbaikan menjadi inkremental daripada transformatif.

Split 50/50 untuk LoRA full-body secara konsisten mengungguli rasio lain. Training pada SDXL menghasilkan kualitas lebih tinggi tetapi memerlukan lebih banyak VRAM dan waktu dibandingkan SD 1.5.

Kesimpulan - Membangun Dataset Training yang Berhasil

Komposisi dataset training LoRA membuat perbedaan antara hasil biasa-biasa saja dan konsistensi karakter yang sangat baik. Formula teruji dalam panduan ini memberikan titik awal untuk kebutuhan spesifik Anda.

Poin Penting: LoRA khusus wajah bekerja sangat baik dengan 100+ gambar fokus wajah. LoRA full-body membutuhkan 100+ gambar split 50/50 antara headshot dan body shot. LoRA multi-purpose yang menangani konten SFW dan NSFW mendapat manfaat dari 200+ gambar split 100/100. Kualitas dan variasi lebih penting daripada jumlah gambar mentah.

Strategi Training Anda: Mulai dengan tujuan yang jelas - apa yang akan dihasilkan LoRA ini? Sesuaikan ukuran dan komposisi dataset dengan tujuan tersebut. Kurasi untuk kualitas dan keragaman daripada kuantitas. Test secara sistematis dan iterasi berdasarkan hasil aktual.

Pertimbangan Platform: Training lokal memberikan kontrol penuh tetapi memerlukan pengaturan teknis dan sumber daya GPU. Platform cloud seperti Apatero.com menyederhanakan proses dengan pipeline training yang teroptimasi. Training CivitAI menawarkan antarmuka ramah pemula dengan workflow terpandu. Untuk menerapkan LoRA yang telah Anda latih dalam workflow produksi, lihat panduan deployment workflow to production API kami.

Apa Selanjutnya: Bangun dataset training pertama Anda mengikuti panduan ini. Mulai dengan dataset 50 gambar yang sederhana untuk mempelajari prosesnya, kemudian tingkatkan berdasarkan hasil. Bergabunglah dengan komunitas training LoRA untuk berbagi hasil dan belajar dari trainer berpengalaman.

Intinya: LoRA yang hebat berasal dari persiapan dataset yang bijaksana, parameter training yang tepat, dan iterasi sistematis. Ikuti strategi teruji ini, dan Anda akan membuat LoRA yang konsisten dan serbaguna yang menghidupkan karakter Anda di konteks apa pun.

Data training Anda mendefinisikan kemampuan LoRA Anda. Investasikan waktu dalam persiapan dataset, dan hasilnya akan mencerminkan kualitas tersebut.

Siap Membuat Influencer AI Anda?

Bergabung dengan 115 siswa yang menguasai ComfyUI dan pemasaran influencer AI dalam kursus lengkap 51 pelajaran kami.

Harga early-bird berakhir dalam:
--
Hari
:
--
Jam
:
--
Menit
:
--
Detik
Klaim Tempat Anda - $199
Hemat $200 - Harga Naik ke $399 Selamanya