/ ComfyUI / Flux LoRA Training in ComfyUI: Zero to Hero Guide 2025
ComfyUI 25 Min. Lesezeit

Flux LoRA Training in ComfyUI: Zero to Hero Guide 2025

Complete Flux LoRA training tutorial for ComfyUI. Learn dataset preparation, training settings for faces and styles, 12GB VRAM workflows, and professional optimization techniques from scratch.

Flux LoRA Training in ComfyUI: Zero to Hero Guide 2025 - Complete ComfyUI guide and tutorial

Sie haben bisher Bilder mit Flux unter Verwendung von LoRA-Modellen anderer Leute generiert und dabei ordentliche Ergebnisse erzielt. Aber Sie benötigen etwas Spezifisches, das nicht existiert. Einen bestimmten künstlerischen Stil. Ein Produkt, das Sie vermarkten. Ein Charakterdesign für Ihr Spiel. Sie durchsuchen Civitai und Hugging Face, können aber nicht genau das finden, was Sie brauchen.

Das Training Ihres eigenen Flux LoRA löst dieses Problem dauerhaft. Erstellen Sie benutzerdefinierte Modelle, die Ihren exakten Stil, spezifische Subjekte oder einzigartige Konzepte generieren, die kein vortrainiertes Modell bietet. Noch besser: Flux LoRA Training funktioniert auf Consumer-Hardware. Eine 12GB GPU ist ausreichend für professionelle Ergebnisse, wenn Sie die Techniken verstehen, die dieser Leitfaden vermittelt.

Was Sie in diesem umfassenden Training-Leitfaden meistern werden
  • Verständnis der Flux-Architektur und warum sie sich vom SDXL LoRA Training unterscheidet
  • Einrichtung von Kohya_ss für Flux Training im ComfyUI Workflow
  • Professionelle Techniken zur Dataset-Vorbereitung und Beschriftung
  • Optimale Trainingsparameter für Gesichter, Objekte und künstlerische Stile
  • 12GB VRAM Optimierungsstrategien und Speicherverwaltung
  • Erweiterte Qualitätskontrolle und Overfitting-Prävention
  • ComfyUI Integration und Test-Workflows

Warum Flux LoRA Training sich von SDXL unterscheidet

Bevor Sie ins praktische Training eintauchen, müssen Sie die Architektur-Unterschiede von Flux verstehen. Dieses Wissen verhindert frustrierende Fehler und verschwendete Trainingszeit.

Die einzigartige Architektur von Flux

Flux verwendet eine andere Transformer-Architektur im Vergleich zu SDXL und SD1.5 Modellen. Laut Forschung von Black Forest Labs setzt Flux Flow-Matching anstelle traditioneller Diffusion ein, parallele Attention-Layer und eine andere Text-Encoder-Konfiguration.

Kostenlose ComfyUI Workflows

Finden Sie kostenlose Open-Source ComfyUI-Workflows für Techniken in diesem Artikel. Open Source ist stark.

100% Kostenlos MIT-Lizenz Produktionsbereit Sterne & Testen

Diese architektonischen Änderungen bedeuten, dass Trainingsparameter, die für SDXL LoRAs wunderbar funktionieren, oft schlechte Ergebnisse mit Flux produzieren. Lernraten müssen angepasst werden. Netzwerkdimensionen erfordern Überdenken. Die Trainingsdauer ändert sich dramatisch.

Wichtige Architektur-Unterschiede:

Feature SDXL Flux Training-Auswirkung
Basis-Architektur Diffusion UNet Flow Matching Transformer Unterschiedliche Loss-Kurven
Attention-Mechanismus Cross-attention Parallel attention Anforderungen an Network Rank
Text Encoder CLIP L+G T5-XXL Caption-Strategie ändert sich
Parameter-Anzahl 2.6B 12B VRAM-Anforderungen
Training-Konvergenz Moderat Schnell Reduzierte Trainingszeit

Flux trainiert schneller als SDXL trotz größerer Größe, da Flow-Matching effizienter konvergiert als Diffusion-Training. Sie erhalten verwendbare Ergebnisse in 500-1000 Steps anstelle der typischen 3000-5000 Steps von SDXL.

Vergleich der Training-Ressourcenanforderungen

SDXL LoRA Training:

  • 12GB VRAM (knapp aber machbar)
  • 3-6 Stunden typische Trainingszeit
  • 16-32 Network Rank Standard
  • 20-50 Trainingsbilder typisches Dataset

Flux LoRA Training:

  • 12GB VRAM (erfordert Optimierung)
  • 2-4 Stunden typische Trainingszeit
  • 32-64 Network Rank empfohlen
  • 15-40 Trainingsbilder ausreichend

Flux erfordert höhere Network Ranks für Qualitätsergebnisse, trainiert aber insgesamt schneller. Das größere Modell erfasst komplexe Konzepte leichter, was bedeutet, dass kleinere Datasets gut funktionieren, wenn sie richtig vorbereitet sind. Für allgemeine AI-Trainingsansätze vergleichen Sie dies mit DreamBooth vs LoRA Methoden.

Installation und Konfiguration der Training-Tools

Voraussetzungen: Sie benötigen eine funktionierende ComfyUI-Installation mit Flux-Unterstützung, NVIDIA GPU mit 12GB+ VRAM und 64GB+ System-RAM. Training ohne ausreichend RAM führt zu Swapping, das den Prozess qualvoll langsam macht.

Installation von Kohya_ss für Flux Training

Kohya_ss bleibt der Goldstandard für Flux LoRA Training und bietet umfassende Parameterkontrolle und Optimierungsoptionen.

Installationsprozess:

  1. Terminal öffnen und zu einem Verzeichnis für Training-Tools navigieren
  2. Kohya Repository klonen mit git clone https://github.com/kohya-ss/sd-scripts
  3. In sd-scripts Verzeichnis navigieren
  4. Python Virtual Environment erstellen mit python -m venv venv
  5. Environment aktivieren (source venv/bin/activate auf Linux/Mac, venv\Scripts\activate auf Windows)
  6. Requirements installieren mit pip install -r requirements.txt
  7. Flux-spezifische Abhängigkeiten installieren mit pip install accelerate safetensors omegaconf

Installation verifizieren durch Ausführen von python -c "import kohya_ss; print('Success')" ohne Fehler.

Alternative: LoRA Training GUIs

Wenn Command-Line Training einschüchternd wirkt, unterstützen mehrere GUI-Optionen Flux:

  • Kohya GUI: Benutzerfreundliche Oberfläche für Kohya Scripts
  • AI-Toolkit: Optimiertes Training mit Preset-Konfigurationen
  • OneTrainer: All-in-One Training-Lösung mit Unterstützung mehrerer Architekturen

Diese Tools verwenden Kohya Scripts im Hintergrund, bieten aber visuelle Konfiguration. Die Ergebnisse sind identisch, wählen Sie also basierend auf Ihrem Komfort mit Command-Line Interfaces.

Download der Flux Basis-Modelle

LoRA Training erfordert das Flux Basis-Modell als Grundlage für Ihr benutzerdefiniertes Training.

Flux Modell-Varianten:

Flux.1-Dev (Empfohlen für Training):

  • Download von Black Forest Labs' Hugging Face
  • Platzierung in ComfyUI/models/checkpoints/
  • Größe beträgt ungefähr 23.8GB
  • Beste Balance aus Qualität und Training-Kompatibilität
  • Kostenlos für nicht-kommerzielle Nutzung

Flux.1-Schnell (Schnellere Alternative):

  • Optimiert für Geschwindigkeit über Qualität
  • Kleinere Dateigröße (22.1GB)
  • Schnelleres Training aber potenziell niedrigere Qualitätsergebnisse
  • Erwägen für Test-Workflows vor ernsthaftem Training

Laden Sie nur Flux.1-Dev für diesen Leitfaden herunter. Schnell funktioniert für schnelle Tests, aber Dev produziert überlegene Ergebnisse für ernsthafte Projekte. Wenn Modellverwaltung mühsam klingt, bietet Apatero.com sofortigen Zugang zu Flux-Generierung ohne Download massiver Modelldateien.

Konfiguration der Training-Umgebung

Directory Structure Setup:

Erstellen Sie organisierte Verzeichnisse für effizienten Training-Workflow:

  • flux_training/
    • datasets/ (Ihre Trainingsbildsets)
    • outputs/ (trainierte LoRA-Dateien)
    • config/ (Trainingskonfigurationsdateien)
    • logs/ (Training-Fortschrittslogs)

Environment Variables:

Setzen Sie diese in Ihrem Terminal oder fügen Sie sie zur Shell-Konfiguration hinzu:

  • HF_HOME zeigt auf Hugging Face Cache-Verzeichnis
  • PYTORCH_CUDA_ALLOC_CONF auf max_split_size_mb 512 für Speicheroptimierung setzen
  • CUDA_VISIBLE_DEVICES auf Ihre GPU-Nummer setzen (0 für einzelne GPU)

Diese Einstellungen verhindern Speicherfragmentierungsprobleme, die Training-Abstürze auf Systemen mit genau 12GB VRAM verursachen.

Dataset-Vorbereitung für Flux LoRAs

Dataset-Qualität bestimmt 80% Ihrer finalen LoRA-Qualität. Richtige Vorbereitung zählt mehr als perfekte Trainingsparameter.

Richtlinien für Bildsammlung

Für Gesichts- und Charaktertraining:

  • 15-25 hochauflösende Bilder minimum
  • Mehrere Winkel (frontal, 3/4, Profil, verschiedene Perspektiven)
  • Verschiedene Ausdrücke (neutral, lächelnd, ernst, verschiedene Emotionen)
  • Unterschiedliche Lichtbedingungen (natürlich, Studio, dramatisch, weich)
  • Variierende Hintergründe zur Overfitting-Vermeidung
  • Konsistentes Subjekt ohne drastische Erscheinungsänderungen

Für künstlerisches Stil-Training:

  • 25-40 Bilder, die den Stil umfassend repräsentieren
  • Verschiedene Subjekte innerhalb des Stils (nicht nur Porträts oder nur Landschaften)
  • Konsistente künstlerische Technik über Bilder hinweg
  • Hochwertige Scans oder Fotos von Kunstwerken
  • Wasserzeichen und Signaturen entfernen, die ins Modell trainiert werden könnten

Für Produkt- oder Objekt-Training:

  • 15-30 Bilder aus mehreren Winkeln
  • Verschiedene Licht-Setups, die Form und Textur zeigen
  • Unterschiedliche Kontexte und Hintergründe
  • Maßstabsreferenzen mit anderen Objekten einbeziehen
  • Konsistente Produktidentität über Bilder hinweg

Bildanforderungen und Vorverarbeitung

Technische Anforderungen:

  • Minimale Auflösung 512x512 (1024x1024 empfohlen für Flux)
  • JPG oder PNG Format (PNG bevorzugt für Qualität)
  • Keine extremen Kompressionsartefakte
  • Konsistente Seitenverhältnisse innerhalb des Datasets
  • Gut belichtete Bilder ohne ausgebrannte Highlights oder abgesoffene Schatten

Vorverarbeitungsschritte:

  1. Auflösungsstandardisierung:

    • Alle Bilder auf konsistenten Resolution Bucket skalieren
    • Flux behandelt mehrere Seitenverhältnisse, aber Konsistenz hilft dem Training
    • 1024x1024 als Baseline verwenden, 768x768 bis 1536x1536 Bereich erlauben
  2. Qualitätsverbesserung:

    • Niedrigauflösende Bilder mit Qualitäts-Upscalern hochskalieren
    • Belichtungsprobleme in Bildbearbeitungssoftware beheben
    • Offensichtliche Kompressionsartefakte wenn möglich entfernen
    • Zuschneiden, um ablenkende Elemente außerhalb des Hauptsubjekts zu entfernen
  3. Augmentierungs-Überlegungen:

    • Flux benötigt weniger Augmentation als SDXL
    • Nur horizontal spiegeln für symmetrische Subjekte
    • Aggressive Augmentation vermeiden, die Subjektidentität verändert
    • Trainingsprozess Variations-Generierung handhaben lassen

Tools für Vorverarbeitung:

  • BIRME für Batch-Größenänderung auf mehrere Auflösungen
  • XnConvert für Batch-Formatkonvertierung und grundlegende Anpassungen
  • Real-ESRGAN für Upscaling niedrigauflösender Bilder
  • PhotoPea (webbasiert) oder GIMP für individuelle Bildkorrektur

Professionelle Captioning-Strategien

Der T5-XXL Text Encoder von Flux ermöglicht anspruchsvolles natürlichsprachliches Verständnis, was Caption-Qualität kritisch für Training-Erfolg macht.

Captioning-Ansätze:

Detaillierte natürliche Sprache (Empfohlen): Vollständige Satzbeschreibungen schreiben, die Subjekt, Stil, Kontext und wichtige Details erfassen.

Beispiel: "Ein professionelles Foto einer jungen Frau mit schultergroßem braunem Haar, die einen blauen Pullover trägt, warm in die Kamera lächelt bei natürlichem Tageslicht mit verschwommenem Außenhintergrund"

Strukturierte Tags (Alternative): Kommagetrennte beschreibende Tags in logischer Reihenfolge verwenden.

Beispiel: "Frau, 25 Jahre alt, braunes Haar, blauer Pullover, echtes Lächeln, Außenporträt, natürliche Beleuchtung, geringe Schärfentiefe, professionelle Fotografie"

Manuelles vs automatisiertes Captioning:

Manuelles Captioning (Beste Qualität):

  • Beschreibungen für jedes Bild selbst schreiben
  • Erfasst Nuancen, die automatisierte Tools verpassen
  • Zeitintensiv (5-10 Minuten pro Bild)
  • Lohnt sich für kleine Datasets (unter 20 Bildern)
  • Gewährleistet Konsistenz und Genauigkeit

Automatisiertes Captioning mit Review:

  • BLIP, WD14 Tagger oder GPT-Vision für initiale Captions verwenden
  • Jedes generierte Caption überprüfen und bearbeiten
  • Fehler beheben und fehlende Details hinzufügen
  • Schnellster Ansatz für größere Datasets (30+ Bilder)
  • Balance aus Geschwindigkeit und Qualität

Caption-Format für Flux Training: Captions als .txt-Dateien mit identischen Namen zu Ihren Bildern speichern:

  • image001.jpg → image001.txt
  • portrait_front.png → portrait_front.txt
  • Caption-Dateien im selben Verzeichnis wie Bilder platzieren

Trigger Word Strategie:

Ein einzigartiges Trigger Word in alle Captions einbeziehen, um Ihr trainiertes Konzept zu aktivieren.

Etwas Ungewöhnliches aber Einprägsames wählen:

  • Gesichter/Charaktere verwenden "ohwx person" oder "sks person"
  • Stile verwenden "artwork in [stylename] style"
  • Objekte verwenden "[uniquename] product"

Beispiel-Caption mit Trigger: "Ein Porträt von ohwx person in formeller Kleidung, professionelles Headshot mit Studio-Beleuchtung und neutralem grauen Hintergrund"

Das Trigger Word ermöglicht es Ihnen, Ihr LoRA präzise zu aktivieren, ohne dass es bei jeder Generierung angewendet wird. Wenn Sie auch an Checkpoint-Merging interessiert sind, sehen Sie unseren ComfyUI Checkpoint-Merging Leitfaden.

Optimale Trainingsparameter für verschiedene Anwendungsfälle

Trainingsparameter beeinflussen Ergebnisse dramatisch. Diese bewährten Konfigurationen funktionieren für spezifische Anwendungsfälle.

Gesichts- und Charaktertraining-Parameter

Gesichter trainieren erfordert Balance zwischen Identitätserhaltung und Generierungsflexibilität.

Bewährte Gesichtstraining-Konfiguration:

Parameter Wert Begründung
Network Dimension (Rank) 64 Erfasst Gesichtsdetail-Komplexität
Network Alpha 32 Hälfte des Rank verhindert Overfitting
Learning Rate 1e-4 Konservativ für stabiles Identitätslernen
Text Encoder LR 5e-5 Niedrigere Rate erhält Basis-Modell-Konzeptverständnis
Training Steps 800-1200 Konvergenz ohne Auswendiglernen
Batch Size 1 Maximale Qualität auf 12GB VRAM
Epochs 8-12 Mehrere Durchgänge verstärken Identität
Optimizer AdamW8bit Speichereffizient, stabil
LR Scheduler Cosine with warmup Sanfte Konvergenz

Warum diese Einstellungen funktionieren:

Rank 64 bietet ausreichende Kapazität für detaillierte Gesichtsmerkmale, Ausdrücke und konsistente Identität ohne übermäßige Parameter, die Overfitting verursachen. Die konservative Lernrate verhindert katastrophales Vergessen, bei dem das Modell die allgemeine Bildgenerierungsfähigkeit verliert, während es das spezifische Gesicht lernt.

Text Encoder Training mit niedrigerer Rate erhält Balance. Das Basis-Flux-Modell versteht Gesichter allgemein. Sie lehren es ein spezifisches Gesicht, nicht was Gesichter sind neu zu lernen. Niedrigere Text Encoder LR bewahrt dieses fundamentale Verständnis.

Künstlerisches Stil-Training-Parameter

Stil-Training betont breitere Muster und künstlerische Techniken statt spezifischer Subjekte.

Bewährte Stil-Training-Konfiguration:

Parameter Wert Begründung
Network Dimension (Rank) 32 Stilmuster benötigen weniger Kapazität
Network Alpha 16 Verhindert Stil-Bleeding
Learning Rate 8e-5 Moderate Rate für Musterlernen
Text Encoder LR 4e-5 Hilft Text mit Stil zu assoziieren
Training Steps 1500-2500 Längeres Training erfasst Stilkonsistenz
Batch Size 2 Erhöhte Batch hilft Stilgeneralisierung
Epochs 15-25 Mehrere Epochs verstärken Stilmuster
Optimizer Lion Oft überlegen für Stil-Training
LR Scheduler Cosine Sanfte Stilanwendung

Stil-Training-Überlegungen:

Künstlerische Stile erfordern anderen Ansatz als Gesichtstraining. Sie lehren konsistente Anwendung künstlerischer Techniken, Farbpaletten, Pinselstrichmuster und kompositorischer Ansätze über verschiedene Subjekte hinweg.

Niedrigerer Rank (32) verhindert Overfitting auf spezifische Subjekte in Ihren Trainingsbildern. Das Ziel ist Stilanwendung zu lernen, nicht bestimmte Bilder auswendig zu lernen. Sie wollen, dass das Modell impressionistische Pinselführung auf jedes Subjekt anwendet, nicht nur Ihre Trainingsbilder repliziert.

Höhere Epoch-Anzahl mit moderater Lernrate gibt dem Modell Zeit, Stilmuster zu extrahieren, während Memorierung einzelner Trainingsbilder verhindert wird.

Produkt- und Objekt-Training-Parameter

Training spezifischer Produkte oder Objekte für kommerzielle Anwendungen erfordert Detailerhaltung und Flexibilität.

Bewährte Objekt-Training-Konfiguration:

Möchten Sie die Komplexität überspringen? Apatero liefert Ihnen sofort professionelle KI-Ergebnisse ohne technische Einrichtung.

Keine Einrichtung Gleiche Qualität Start in 30 Sekunden Apatero Kostenlos Testen
Keine Kreditkarte erforderlich
Parameter Wert Begründung
Network Dimension (Rank) 48 Balance aus Detail und Flexibilität
Network Alpha 24 Moderate Regularisierung
Learning Rate 1.2e-4 Etwas höher für Objektmerkmale
Text Encoder LR 6e-5 Hilft Textassoziation
Training Steps 1000-1500 Objekterkennungs-Sweet-Spot
Batch Size 1-2 Speicherabhängig
Epochs 10-15 Ausreichend für Objektidentität
Optimizer AdamW8bit Zuverlässig für Objekt-Training
LR Scheduler Cosine with warmup Stabile Konvergenz

Objekt-Training-Strategie:

Produkte benötigen erkennbare Identität bei gleichzeitiger Flexibilität für verschiedene Kontexte, Winkel und Beleuchtung. Rank 48 bietet diese Balance.

Die etwas höhere Lernrate verglichen mit Gesichtstraining hilft dem Modell, unterscheidende Objektmerkmale schnell zu lernen. Objekte haben typischerweise klarere definierende Eigenschaften als subtile Gesichtsidentitätsunterschiede.

Mehr Trainingsbilder, die verschiedene Winkel und Kontexte zeigen, verhindern Overfitting auf spezifische Blickwinkel oder Hintergründe, die in Produktfotografie üblich sind.

12GB VRAM Optimierungsstrategien

Training von Flux LoRAs auf genau 12GB VRAM erfordert sorgfältige Optimierung. Diese Techniken machen professionelles Training auf Consumer-GPUs möglich.

Wesentliche Speicheroptimierungs-Einstellungen

Gradient Checkpointing: In Trainingskonfiguration aktivieren, um Rechenzeit gegen Speichernutzung einzutauschen. Reduziert VRAM-Verbrauch um 30-40% mit ~15% Geschwindigkeitsstrafe. Lohnt sich auf 12GB Karten.

Mixed Precision Training: bf16 (bfloat16) Mixed Precision für Speichereffizienz und Training-Stabilität verwenden. Flux trainiert nativ mit bf16, was es ideal für LoRA Training macht.

8-bit Optimizer: AdamW8bit anstelle des Standard-AdamW Optimizers verwenden. Spart 2-3GB VRAM mit minimalem Qualitätsverlust. Essentiell für 12GB Training.

Reduzierte Batch Size: Batch Size 1 ist Standard für 12GB Training. Während größere Batches theoretisch Training verbessern, machen Speicherbeschränkungen Batch Size 1 notwendig und es produziert trotzdem exzellente Ergebnisse.

Erweiterte Speicherverwaltung

Model Offloading: Aggressives Model Offloading konfigurieren, um nicht-aktive Training-Komponenten während spezifischer Training-Phasen in System-RAM zu verschieben. Erfordert schnellen System-RAM (32GB+ empfohlen), ermöglicht aber Training, das nicht allein in VRAM passen würde.

Gradient Accumulation: Falls Trainingsqualität unter Batch Size 1 leidet, Gradient Accumulation verwenden. Gradienten über mehrere Steps akkumulieren bevor Updates angewendet werden, simuliert größere effektive Batch Size ohne erhöhten VRAM.

Beispielkonfiguration für effektive Batch Size 4 mit 12GB VRAM:

  • Tatsächliche Batch Size auf 1 gesetzt
  • Gradient Accumulation Steps auf 4 gesetzt
  • Modell-Updates alle 4 Steps unter Verwendung akkumulierter Gradienten

Cache Latents: VAE Latents von Ihren Trainingsbildern vor Trainingsbeginn vorberechnen. Caching eliminiert wiederholtes VAE Encoding während des Trainings, spart signifikanten VRAM und beschleunigt Training um 20-30%.

Auflösungsoptimierung:

Training-Auflösung VRAM-Nutzung Qualität Geschwindigkeit
768x768 9-10GB Gut 1,5x schneller
1024x1024 11-12GB Exzellent Baseline
1280x1280 14-16GB Maximum 0,7x langsamer

Bei 1024x1024 für Standard-Qualitätsergebnisse auf 12GB Karten trainieren. Auflösung nur reduzieren, wenn Out-of-Memory-Fehler trotz anderer Optimierungen auftreten.

Speicherüberwachung und Fehlerbehebung

Echtzeit-Überwachung: nvidia-smi oder gpustat verwenden, um VRAM-Nutzung während des Trainings zu beobachten. Falls Nutzung sich dem 12GB-Limit nähert, Training abbrechen und Parameter anpassen bevor es abstürzt.

Häufige OOM (Out of Memory) Fixes:

  1. Network Rank von 64 auf 48 oder 32 reduzieren
  2. Gradient Checkpointing aktivieren falls noch nicht aktiv
  3. Trainingsauflösung temporär auf 768x768 senken
  4. Caption-Länge reduzieren (extrem lange Captions erhöhen Speicher)
  5. Alle anderen GPU-nutzenden Anwendungen schließen

Wiederherstellung von Training-Abstürzen: Falls Training mittendrin abstürzt, speichert Kohya automatisch Checkpoints. Training vom letzten gespeicherten Checkpoint fortsetzen statt neu zu starten. Fortschritt geht nicht verloren, es sei denn Sie deaktivieren Checkpoint-Speicherung.

Für Nutzer, die Speicherverwaltung komplett vermeiden möchten, denken Sie daran, dass Apatero.com die gesamte Training-Infrastruktur übernimmt. Sie laden Ihr Dataset hoch und erhalten trainierte LoRAs ohne VRAM-Beschränkungen oder Optimierungs-Aufwand.

Schritt-für-Schritt Training-Workflow

Jetzt, da Sie Theorie und Konfiguration verstehen, lassen Sie uns Ihr erstes Flux LoRA von Anfang bis Ende trainieren.

Kompletter Training-Prozess

Schritt 1: Ihr Dataset vorbereiten

  1. 15-25 Bilder gemäß Richtlinien aus Dataset-Sektion sammeln
  2. Bilder auf konsistente Auflösung skalieren (1024x1024 empfohlen)
  3. Captions für jedes Bild inklusive Ihres Trigger Words erstellen
  4. In flux_training/datasets/your_project_name/ organisieren

Schritt 2: Trainingskonfiguration erstellen

  1. Zu Kohya_ss Verzeichnis navigieren
  2. Beispielkonfigurationsdatei für Flux kopieren
  3. Parameter gemäß bewährten Konfigurationen für Ihren Anwendungsfall bearbeiten
  4. Pfade zu Dataset, Output-Verzeichnis und Basis-Modell spezifizieren
  5. Konfiguration als your_project_name_config.toml speichern

Schritt 3: Training starten

  1. Python-Umgebung aktivieren
  2. Training-Script ausführen mit python train_network.py --config your_project_name_config.toml
  3. Initiale Ausgabe auf Konfigurationsfehler überwachen
  4. GPU-Auslastung beobachten um erfolgreichen Trainingsstart zu verifizieren

Schritt 4: Training-Fortschritt überwachen

  1. Training-Loss über Steps abnehmend prüfen
  2. Loss sollte von ~0.15 auf ~0.08 für gutes Training fallen
  3. Alle 200-300 Steps Beispielbilder generieren um Qualität zu verifizieren
  4. Auf Overfitting-Zeichen achten (Loss hört auf zu sinken oder steigt)

Schritt 5: Training-Ergebnisse evaluieren

  1. Training speichert automatisch Checkpoints alle paar hundert Steps
  2. Finales LoRA in ComfyUI mit verschiedenen Prompts testen
  3. Prüfen ob Trigger Word Ihr Konzept effektiv aktiviert
  4. Verifizieren, dass Modell über Trainingsbilder hinaus generalisiert

Typischer Training-Zeitplan:

  • Dataset-Vorbereitung (Gesichter): 1-2 Stunden
  • Konfigurations-Setup: 15-30 Minuten
  • Tatsächliche Trainingszeit: 2-4 Stunden abhängig von GPU und Einstellungen
  • Testen und Evaluierung: 30 Minuten bis 1 Stunde
  • Gesamtprojektzeit: 4-8 Stunden für erstes Projekt

Nachfolgende Projekte gehen schneller, sobald Sie Templates haben und den Workflow verstehen. Für mehr ComfyUI Workflow-Optimierung erkunden Sie essentielle ComfyUI Custom Nodes.

Beispiel-Trainingskonfigurationsdatei

Hier ist eine komplette funktionierende Konfiguration für Gesichtstraining bei 12GB VRAM:

[model_arguments]
pretrained_model_name_or_path = "path/to/flux.1-dev.safetensors"
vae = "path/to/ae.safetensors"

[dataset_arguments]
train_data_dir = "path/to/your/dataset"
resolution = "1024,1024"
batch_size = 1
enable_bucket = true

[training_arguments]
output_dir = "path/to/output"
max_train_steps = 1000
learning_rate = 1e-4
text_encoder_lr = 5e-5
lr_scheduler = "cosine"
lr_warmup_steps = 100
optimizer_type = "AdamW8bit"
mixed_precision = "bf16"
gradient_checkpointing = true
network_dim = 64
network_alpha = 32
save_every_n_epochs = 2

Pfade und Parameter für Ihr spezifisches Projekt anpassen. Als .toml-Datei speichern und beim Start des Trainings referenzieren.

Testen und Verfeinern Ihres Flux LoRA

Nach Trainingsabschluss enthüllt systematisches Testen Qualität und leitet Verfeinerung an.

LoRA in ComfyUI laden

  1. Ihre trainierte LoRA-Datei aus Output-Verzeichnis kopieren
  2. In ComfyUI/models/loras/ platzieren
  3. ComfyUI neu starten um neues LoRA zu erkennen
  4. Flux Basis-Modell in ComfyUI Workflow laden
  5. "Load LoRA" Node hinzufügen und mit Ihrem Modell verbinden
  6. LoRA-Stärke auf 0.8-1.0 für Tests setzen

Systematische Qualitätstests

Identitäts-/Konzepterkennungstest: 10-15 Bilder mit Ihrem Trigger Word und verschiedenen Prompts generieren. Konsistente Aktivierung Ihres trainierten Konzepts prüfen. Gesichts-LoRAs sollten dieselbe Person über Generierungen hinweg zeigen. Stil-LoRAs sollten konsistente künstlerische Technik anwenden.

Generalisierungstest: Prompts mit Szenarien verwenden, die nicht in Ihren Trainingsdaten sind. Ein Gesichts-LoRA, trainiert auf Casualfotos, sollte trotzdem für "ohwx person als mittelalterlicher Ritter" oder "ohwx person in Geschäftskleidung" funktionieren. Stil-LoRAs sollten auf Subjekte anwendbar sein, die nicht in Trainingsbildern sind.

Stärke-Sensitivitätstest: Denselben Prompt bei LoRA-Stärken von 0.4, 0.6, 0.8 und 1.0 generieren. Beobachten, wie stark Ihr Konzept bei jedem Level angewendet wird. Gut trainierte LoRAs zeigen graduelle Stärkenskalierung statt Alles-oder-Nichts-Verhalten.

Negative Prompt Interaktion: Testen ob Negative Prompts Ihr LoRAs Output effektiv modifizieren. "ohwx person, sad expression" sollte ein LoRA überschreiben, das hauptsächlich auf lächelnde Fotos trainiert wurde. Kontrollverlust deutet auf Overfitting hin.

Identifikation von Training-Problemen

Overfitting-Symptome:

  • LoRA repliziert nur exakte Trainingsbilder
  • Hintergrundelemente aus Trainingsbildern erscheinen in allen Generierungen
  • Verlust von Flexibilität und Prompt-Responsivität
  • Funktioniert nur bei LoRA-Stärke 1.0, nichts bei niedrigeren Stärken

Underfitting-Symptome:

  • Trigger Word aktiviert Konzept nicht konsistent
  • Schwache oder inkonsistente Anwendung des trainierten Stils/Identität
  • Sieht kaum anders aus als Basis-Modell-Generierungen
  • Erfordert LoRA-Stärke über 1.0 für merklichen Effekt

Qualitätsprobleme:

  • Artefakte oder visuelle Verschlechterung verglichen mit Basis-Modell
  • Farbverschiebungen oder Stil-Kontamination
  • Verlust von Flux's charakteristischer Detail-Qualität
  • Schlechtere Prompt-Befolgung als Basis-Modell

Iterative Verfeinerungs-Strategie

Bei Overfitting:

  1. Training-Steps um 25-30% reduzieren
  2. Lernrate um 20% senken
  3. Network Alpha erhöhen für mehr Regularisierung
  4. Mehr diverse Bilder zum Dataset hinzufügen

Bei Underfitting:

  1. Training-Steps um 30-50% erhöhen
  2. Lernrate um 15-20% anheben
  3. Verifizieren, dass Captions Ihr Konzept richtig beschreiben
  4. Erwägen Network Rank zu erhöhen

Bei Qualitätsproblemen:

  1. Auf beschädigte Bilder im Training-Dataset prüfen
  2. Basis-Modell-Dateiintegrität verifizieren
  3. Konsistente Beschriftung über Dataset hinweg sicherstellen
  4. Anderen Optimizer oder Learning Rate Scheduler versuchen

Die meisten Probleme lösen sich mit Dataset-Verbesserungen oder Parameter-Anpassungen. Selten ist der Training-Prozess selbst fehlerhaft. Fokus auf Dataset-Qualität und geeignete Parameter für Ihren Anwendungsfall.

Erweiterte Techniken und Pro-Tipps

Sobald Sie mit Basis-Training vertraut sind, produzieren diese erweiterten Techniken noch bessere Ergebnisse.

Multi-Konzept LoRA Training

Ein einzelnes LoRA trainieren, das mehrere verwandte Konzepte enthält (mehrere Charaktere aus derselben Serie, verwandte künstlerische Stile, Produktlinienvarianten).

Multi-Konzept-Strategie:

  1. Separate Unterverzeichnisse für jedes Konzept innerhalb Ihres Dataset-Ordners erstellen
  2. Verschiedene Trigger Words für jedes Konzept in jeweiligen Captions verwenden
  3. Bildanzahlen ausbalancieren (ähnliche Zahlen pro Konzept verhindert Bias)
  4. Network Rank leicht erhöhen (80-96 anstelle von 64 verwenden)
  5. Länger trainieren (1,5x typische Step-Anzahl)

Dies erstellt eine einzelne LoRA-Datei, aktivierbar mit verschiedenen Trigger Words für unterschiedliche Konzepte. Praktisch für verwandte Konzepte, die gemeinsame Attribute teilen.

Pivotal Tuning Integration

Text Inversion Embeddings mit LoRA Training kombinieren für verbesserte Ergebnisse. Das Embedding erfasst grobe Konzeptrepräsentation während LoRA Details verfeinert.

Pivotal Tuning Prozess:

  1. Zuerst Text Inversion Embedding trainieren (500-1000 Steps)
  2. Embedding in Captions während LoRA Training verwenden
  3. LoRA Training baut auf Embedding-Grundlage auf
  4. Sowohl Embedding als auch LoRA zusammen in ComfyUI deployen

Dieser hybride Ansatz produziert oft überlegene Ergebnisse für komplexe Konzepte oder herausfordernde Subjekte, mit denen reines LoRA kämpft.

Stil-Stärke-Kontrolle durch mehrere Checkpoints

Training-Checkpoints in verschiedenen Intervallen speichern, um LoRAs mit variierenden Stil-Stärke-Levels zu erstellen.

Multi-Stärke-Technik:

  1. Checkpoint-Speicherung alle 200-300 Steps aktivieren
  2. Nach Training Checkpoints aus verschiedenen Training-Stadien testen
  3. Frühe Checkpoints (400-600 Steps) wenden subtilen Stileinfluss an
  4. Mittlere Checkpoints (800-1000 Steps) bieten balancierte Anwendung
  5. Späte Checkpoints (1200-1500 Steps) geben starke Stilanwendung
  6. Mehrere Checkpoints behalten, die verschiedene Stärke-Levels bieten

Dies bietet eingebaute Stärkenvariation ohne ständige Anpassung von LoRA-Weight-Slidern. Den Checkpoint wählen, der Ihrer gewünschten Intensität entspricht.

QLoRA für extreme Speichereffizienz

Quantized LoRA (QLoRA) ermöglicht Training auf noch limitierterer Hardware durch 4-bit Quantisierung.

QLoRA-Vorteile:

  • Trainiert auf 8-10GB VRAM anstelle 12GB Anforderung
  • Etwas längere Trainingszeit (20-30% langsamer)
  • 90-95% Qualität von Full-Precision Training
  • Öffnet Training für mehr Nutzer mit Budget-Hardware

QLoRA macht Sinn, wenn Sie absolut auf limitiertem VRAM trainieren müssen oder höhere Ranks (128+) trainieren wollen, die nicht in Full Precision passen würden. Für die meisten Nutzer bietet Standard-bf16 Mixed Precision auf 12GB Karten optimale Balance. Für Lernen über allgemeine Low VRAM ComfyUI Optimierung, prüfen Sie unseren kompletten Leitfaden.

Fehlerbehebung häufiger Training-Probleme

Selbst mit korrektem Setup werden Sie auf spezifische Probleme stoßen. Diese Lösungen adressieren die häufigsten Probleme.

Training startet nicht oder stürzt sofort ab

Symptome: Training-Script wirft sofort Fehler oder stürzt innerhalb der ersten Steps ab.

Lösungen:

  1. Alle Dateipfade in Konfiguration auf Korrektheit und absolute Pfade (nicht relativ) verifizieren
  2. CUDA-Installation und GPU-Treiber auf Aktualität prüfen
  3. Bestätigen, dass Basis-Flux-Modelldatei nicht beschädigt ist (bei Bedarf neu herunterladen)
  4. Sicherstellen, dass alle erforderlichen Python-Pakete korrekt installiert sind
  5. Mit --lowvram Flag im Training-Befehl versuchen
  6. Dataset prüfen, ob mindestens erforderliche Bilder enthalten sind

Funktioniert immer noch nicht: Training mit --debug Flag ausführen für ausführliche Fehlermeldungen. Exakte Fehlermeldung in Kohya_ss GitHub Issues suchen. Die Community hat wahrscheinlich Ihr spezifisches Problem gelöst.

Loss sinkt nicht oder unregelmäßige Loss-Kurve

Symptome: Training-Loss bleibt während des gesamten Trainings hoch (über 0.12) oder springt wild zwischen Steps statt sankt gleichmäßig zu sinken.

Lösungen:

  1. Lernrate um 30-50% senken (5e-5 anstelle von 1e-4 versuchen)
  2. Learning Rate Warmup Steps auf 10% der Gesamt-Steps erhöhen
  3. Auf beschädigte Bilder im Dataset prüfen (entfernen und erneut testen)
  4. Verifizieren, dass Captions Bildinhalte tatsächlich akkurat beschreiben
  5. Anderen Optimizer versuchen (zwischen AdamW8bit und Lion wechseln)

Unregelmäßiger Loss deutet oft auf zu hohe Lernrate oder Dataset-Qualitätsprobleme hin. Sanfte, graduell sinkende Loss-Kurve ist das Ziel.

LoRA produziert Artefakte oder verschlechtert Qualität

Symptome: Mit Ihrem LoRA generierte Bilder zeigen visuelle Artefakte, Verschwommenheit oder schlechtere Qualität als Basis-Flux-Modell allein.

Lösungen:

  1. Network Rank reduzieren (32 anstelle von 64 versuchen)
  2. Lernrate senken um Übertraining zu verhindern
  3. Auf Bildauflösungs-Mismatches im Training-Dataset prüfen
  4. Verifizieren, dass Basis-Modell-Datei die korrekte Flux.1-Dev Version ist
  5. Testen ob Problem bei niedrigerer LoRA-Stärke (unter 0.8) erscheint

Qualitätsverschlechterung bedeutet meist zu aggressive Training-Parameter oder schlechte Dataset-Qualität. Konservatives Training verhindert dieses Problem.

Trigger Word aktiviert Konzept nicht zuverlässig

Symptome: Verwendung des Trigger Words in Prompts aktiviert Ihr trainiertes Konzept nicht konsistent. Manchmal funktioniert es, manchmal nicht.

Lösungen:

  1. Verifizieren, dass Trigger Word in allen Trainingsbilder-Captions erscheint
  2. Prüfen, dass Trigger Word keine häufige Phrase ist, die das Modell bereits kennt
  3. Trigger Word am Anfang von Prompts beim Testen platzieren
  4. LoRA-Stärke auf 1.0 oder höher erhöhen
  5. Länger trainieren (Steps um 30-50% erhöhen)
  6. Erwägen, distinktiveres Trigger Word zu verwenden

Inkonsistente Aktivierung deutet auf Untertraining oder schlechte Trigger Word Wahl hin. Das Wort muss einzigartig genug sein, dass das Modell es stark mit Ihrem Konzept assoziiert.

Reale Anwendungen und Fallstudien

Praktische Anwendungen verstehen hilft Ihnen zu sehen, wie Flux LoRA Training echte Probleme löst.

Content Creator Charakter-Konsistenz

Problem: YouTube-Creator will konsistente Charakter-Illustrationen für Video-Thumbnails und Channel-Art ohne Illustrator für jede Variation zu engagieren.

Lösung:

  • Trainiert Charakter-LoRA mit 20 beauftragten Illustrationen des Maskottchens
  • Beinhaltet mehrere Posen, Ausdrücke und Kontexte
  • Network Rank 64, 1000 Training-Steps
  • Ergebnis produziert On-Brand Charakter-Art auf Abruf
  • Kosteneinsparungen übersteigen $10.000 jährlich bei Illustrations-Aufträgen

Wichtige Erfolgsfaktoren: Hochwertige Trainingsbilder von professionellem Illustrator gewährleisten sauberen, konsistenten Stil. Umfassende Caption-Beschreibungen helfen LoRA zu verstehen, wann spezifische Posen oder Ausdrücke versus flexible Interpretation anzuwenden sind.

E-Commerce Produktfotografie

Problem: Kleines Unternehmen benötigt Produktfotos in verschiedenen Settings und Stilen, hat aber kein Budget für umfangreiche Fotoshootings.

Lösung:

  • Fotografiert Produkt aus 25 Winkeln mit professioneller Beleuchtung
  • Trainiert Produkt-LoRA, das unterscheidende Merkmale identifiziert
  • Generiert Produkt in Lifestyle-Settings, verschiedenen Hintergründen, diversen Kontexten
  • Erstellt Hunderte Marketing-Bilder aus einzelner Training-Session
  • Reduziert Fotografiekosten um 75% bei gleichzeitiger Markenkonsistenz

Implementierungsdetails: Training fokussierte auf Produktidentität bei gleichzeitiger Flexibilität für verschiedene Kontexte. Niedrigere Training-Stärke (0.6-0.7) erlaubt natürliche Integration in generierte Szenen ohne Komposition zu überwältigen.

Indie Game Development Assets

Problem: Solo-Spieleentwickler benötigt konsistenten Kunststil über Hunderte Spiel-Assets, hat aber limitierte künstlerische Fähigkeiten und Budget.

Lösung:

  • Beauftragt 30 Referenz-Kunstwerke, die gewünschte Spiel-Ästhetik etablieren
  • Trainiert künstlerisches Stil-LoRA, das Farbpalette, Rendering-Technik, Komposition erfasst
  • Generiert Charakter-Konzepte, Umgebungskunst, Item-Illustrationen mit Stilerhaltung
  • Erstellt vollständige Spiel-Art-Bible in Wochen anstelle von Monaten
  • Professionelle konsistente Ergebnisse ohne Full-Time Artist Budget

Training-Ansatz: Stil-Training betonte künstlerische Technik über spezifische Subjekte. Diverse Trainingsbilder (Charaktere, Umgebungen, Objekte) halfen LoRA Stilanwendung breit zu lernen statt spezifischen Inhalt auswendig zu lernen.

Marketing Agentur Brand Style Library

Problem: Agentur bedient mehrere Kunden, jeder mit distinktiver visueller Markenidentität, die konsistente Bildsprache erfordert.

Lösung:

  • Erstellt Stil-LoRA für jede große Kunden-Marken-Ästhetik
  • Bibliothek von 15+ markenspezifischen LoRAs ermöglicht schnelle Asset-Generierung
  • Reduziert Zeit von Creative Brief zu finalen Deliverables um 60%
  • Erhält perfekte Markenkonsistenz ohne Referenzdatei-Suchen
  • Skaliert kreative Ausgabe ohne proportionale Team-Erweiterung

Organisations-Strategie: Standardisierter Training-Prozess mit dokumentierten Parametern für jede Marke. Regelmäßiges Retraining wenn Markenrichtlinien sich entwickeln. System ermöglicht Junior-Designern On-Brand Arbeit zu produzieren, die Senior-Designer Output entspricht.

Falls Management mehrerer LoRA-Projekte und Workflows überwältigend klingt, bedenken Sie, dass Apatero.com On-Demand-Generierung ermöglicht ohne LoRA-Bibliotheken zu verwalten oder Retraining-Zeitpläne. Fokus auf kreative Arbeit anstelle von Infrastruktur-Management.

Best Practices für professionelle Ergebnisse

Diese bewährten Praktiken trennen Amateur- von professionellen Flux LoRA Training-Ergebnissen.

Dokumentation und Versionskontrolle

Projekt-Dokumentation: Training-Logs für jedes LoRA-Projekt pflegen inklusive:

  • Original-Dataset-Quellen und Bildanzahl
  • Caption-Strategie und verwendete Trigger Words
  • Exakte Trainingsparameter und Konfigurationsdatei
  • Training-Timeline und Checkpoint-Evaluierungs-Notizen
  • Qualitätstestergebnisse und identifizierte Probleme

Diese Dokumentation ist unschätzbar beim Training ähnlicher Konzepte oder Fehlerbehebung. Sie erinnern sich, was funktioniert hat und vermeiden Wiederholung gescheiterter Ansätze.

Versions-Management: Mehrere Training-Checkpoints mit beschreibenden Namen speichern:

  • character_face_v1_1000steps.safetensors
  • character_face_v2_refined_800steps.safetensors
  • style_painterly_v3_final_1200steps.safetensors

Klare Benennung verhindert Verwirrung beim Management mehrerer LoRAs und Iterationen. Versionsnummern und Step-Anzahlen für einfache Referenz einbeziehen.

Qualitätssicherungs-Tests

Pre-Release Test-Checkliste:

  • ☐ Mit 20+ diversen Prompts jenseits von Training-Subjekten testen
  • ☐ Verifizieren, dass Trigger Word konsistent funktioniert
  • ☐ Prüfen, dass Qualität sich mit aktivem LoRA nicht verschlechtert
  • ☐ Bei mehreren Stärke-Levels (0.4, 0.6, 0.8, 1.0) testen
  • ☐ Mit anderen populären LoRAs auf Kompatibilität kombinieren
  • ☐ Bei verschiedenen Seitenverhältnissen und Auflösungen generieren
  • ☐ Verifizieren, dass Negative Prompts angemessen funktionieren
  • ☐ Qualität gegen Basis-Flux-Modell vergleichen

Nur LoRAs deployen, die umfassende Tests bestehen. Ihre Reputation hängt von Qualitätskontrolle ab.

Dataset-Ethik und Rechteverwaltung

Ethische Überlegungen:

  • Nur Bilder verwenden, für die Sie Trainingsrechte haben
  • Für persönliche Abbilder explizite Erlaubnis einholen
  • Nicht auf urheberrechtlich geschützte Kunstwerke ohne Erlaubnis trainieren
  • Auswirkungen von Stil-LoRAs auf Original-Künstler berücksichtigen
  • Transparent über AI-generierte Inhalte beim Teilen sein

Lizenzierungs-Best-Practices: Bildquellen und Nutzungsrechte für Ihre Training-Datasets dokumentieren. Kommerzielle LoRAs erfordern kommerzielle Nutzungsrechte für alle Trainingsbilder. Persönliche Projekte profitieren trotzdem von ordentlicher Rechteverwaltung zur Vermeidung zukünftiger Probleme.

Kontinuierliches Lernen und Community-Engagement

Aktuell bleiben:

  • Black Forest Labs Blog für Flux-Updates folgen
  • Kohya_ss GitHub für neue Features und Verbesserungen überwachen
  • Discord-Servern fokussiert auf AI-Training-Diskussionen beitreten
  • Ihre Ergebnisse teilen und von Community-Feedback lernen

Flux-Training-Techniken entwickeln sich rasant. Aktive Community-Teilnahme hält Ihre Fähigkeiten aktuell und exponiert Sie zu kreativen Ansätzen, die Sie nicht unabhängig entdecken würden.

Was kommt nach Ihrem ersten erfolgreichen LoRA

Sie haben erfolgreich Ihr erstes Flux LoRA trainiert, verstehen den Workflow und haben Qualitätsergebnisse erreicht, die Ihren Erwartungen entsprechen. Was kommt als Nächstes?

Empfohlene Progression:

  1. 3-5 verschiedene Konzepttypen (Gesicht, Stil, Objekt) trainieren um Verständnis zu festigen
  2. Mit erweiterten Techniken wie Multi-Konzept-Training experimentieren
  3. LoRA-Bibliothek für Ihre häufigen Bedürfnisse aufbauen
  4. Kombinieren mehrerer LoRAs in einzelnen Generierungen erkunden
  5. Erfolgreiche LoRAs mit Community für Feedback teilen

Erweiterte Lern-Ressourcen:

Wählen Sie Ihren Training-Ansatz
  • Lokal trainieren wenn: Sie häufig benutzerdefinierte Konzepte benötigen, geeignete Hardware haben (12GB+ VRAM), vollständige Kontrolle über Training-Prozess wollen und technische Workflows genießen
  • Apatero.com verwenden wenn: Sie professionelle Ergebnisse ohne technisches Setup benötigen, verwaltete Training-Infrastruktur bevorzugen, sofortigen Zugang ohne lokale GPU-Anforderungen wollen oder zuverlässige Output-Qualität für Kundenarbeit benötigen

Flux LoRA Training legt benutzerdefinierte Konzeptgenerierung direkt in Ihre Hände. Ob konsistente Charaktere erstellen, einzigartige künstlerische Stile entwickeln, Produktmarketing-Assets generieren oder Markenidentitätssysteme aufbauen – trainierte LoRAs lösen Probleme, die kein vortrainiertes Modell adressiert.

Der Training-Prozess ist für jeden zugänglich, der bereit ist, Zeit ins Verständnis des Workflows zu investieren. Ihre 12GB Consumer-GPU ist ausreichend für professionelle Ergebnisse, wenn Sie die Techniken anwenden, die dieser Leitfaden lehrt. Die einzigen Limitierungen sind Ihre Kreativität und Bereitschaft zu experimentieren.

Ihr nächstes benutzerdefiniertes Flux LoRA wartet darauf, trainiert zu werden. Beginnen Sie noch heute mit der Sammlung Ihres Datasets.

ComfyUI Meistern - Von Grundlagen bis Fortgeschritten

Nehmen Sie an unserem vollständigen ComfyUI-Grundkurs teil und lernen Sie alles von den Grundlagen bis zu fortgeschrittenen Techniken. Einmalige Zahlung mit lebenslangem Zugang und Updates für jedes neue Modell und Feature.

Vollständiger Lehrplan
Einmalige Zahlung
Lebenslange Updates
Zum Kurs Anmelden
Einmalige Zahlung • Lebenslanger Zugang
Anfängerfreundlich
Produktionsbereit
Immer aktuell