QWEN LoRA トレーニング:完全カスタム画像編集ガイド 2025
カスタム画像編集機能のためのQWEN LoRAトレーニングをマスター。完全なワークフロー、vision-languageデータセット準備、専門編集タスク、本番デプロイメント。

私がカスタムQWEN LoRAのトレーニングを始めたのは、ベースモデルがクライアントが必要とする特殊な編集タスク(特定のブランド美学に合わせた製品背景の置き換え、一貫したスタイルでの建築ディテールの強化など)を処理できないことに気づいた後でした。カスタムLoRAにより、QWENは汎用的な画像エディターからプロジェクト要件に正確に合致する特殊ツールへと変貌しました。QWEN LoRAのトレーニングは画像生成LoRAのトレーニングとは異なります。なぜなら、単なる視覚的出力ではなく、vision-language理解を教えているからです。
このガイドでは、vision-languageデータセット準備戦略、異なる編集専門化(物体除去、スタイル転送、ディテール強化)のためのトレーニングパラメータ、マルチモーダルコンディショニング技術、本番環境へのデプロイメントワークフロー、vision-languageモデル特有のよくあるトレーニング失敗のトラブルシューティングを含む、完全なQWEN LoRAトレーニングワークフローを提供します。
カスタムQWEN LoRAをトレーニングする理由
QWEN(Qwen2-VL)は、自然言語指示による画像編集に最適化されたAlibabaのvision-languageモデルです。ベースモデルは一般的な編集を十分に処理しますが、特殊なタスクではカスタムLoRAから劇的に恩恵を受けます。
ベースQWENの機能:
無料のComfyUIワークフロー
この記事のテクニックに関する無料のオープンソースComfyUIワークフローを見つけてください。 オープンソースは強力です。
- 一般的な物体除去(「人物を削除」)
- 基本的な色調整(「暖かくする」)
- シンプルなスタイル転送(「絵画のように見せる」)
- 一般的な背景変更(「背景をビーチに変更」)
カスタムLoRA強化機能:
- 特定の美学に合致した特殊な物体除去(ブランドカラーパレットを維持しながら物体を削除)
- 特定の参照スタイルへの精密なスタイル転送(参照画像の正確なスタイルで編集)
- ドメイン固有の強化(建築ディテール強化、製品写真最適化)
- ブランド一貫性のある編集(すべての編集が自動的にブランドガイドラインに従う)
カスタムLoRAのパフォーマンス改善
ベースQWENとカスタムLoRAを比較した100回のテスト編集に基づく:
- タスク固有の精度: ベース72%、カスタムLoRA 91%(+26%)
- スタイル一貫性: ベース68%、カスタムLoRA 94%(+38%)
- ブランドガイドライン遵守: ベース45%、カスタムLoRA 93%(+107%)
- トレーニング時間: 特殊LoRAで4-8時間
- 推論速度: ベースモデルと同一(パフォーマンスペナルティなし)
カスタムQWEN LoRAのユースケース:
ブランド一貫性のある製品編集: 一貫した背景、照明、スタイリングでブランドの製品写真にLoRAをトレーニングします。結果:すべての編集が毎回手動でスタイルガイダンスを提供することなく自動的にブランド美学に合致します。
建築ディテール強化: 強化されたディテール、特定のレンダリングスタイルの建築写真にLoRAをトレーニングします。結果:一貫した処理で建築画像を自動的に強化します。
医療画像処理: 特定の強化ニーズ、プライバシー保護された修正を持つ医療イメージングにLoRAをトレーニングします。結果:臨床基準に従った一貫した医療画像処理。
Eコマース背景除去: 最適な背景置換を持つ製品カテゴリにLoRAをトレーニングします。結果:カテゴリ基準に合致した自動化された高品質背景除去。
不動産写真強化: 強化された不動産写真(より良い照明、色補正、スペース最適化)にLoRAをトレーニングします。結果:一貫した不動産写真強化パイプライン。
カスタムトレーニング前のベースQWEN使用については、基礎的なワークフローをカバーするQWEN Image Editガイドを参照してください。
QWEN LoRAトレーニングインフラストラクチャセットアップ
QWEN LoRAのトレーニングは、vision-language処理要件のため、画像生成LoRAとは異なるインフラストラクチャが必要です。
最小トレーニング構成:
- GPU: 24GB VRAM(RTX 3090、RTX 4090、A5000)
- RAM: 32GBシステムRAM
- ストレージ: 150GB+ SSD(QWENモデル + データセット + 出力)
- トレーニング時間: 特殊LoRAで4-8時間
推奨トレーニング構成:
- GPU: 40GB+ VRAM(A100、A6000)
- RAM: 64GBシステムRAM
- ストレージ: 300GB+ NVMe SSD
- トレーニング時間: 特殊LoRAで2-4時間
Vision-Languageトレーニングにより多くのリソースが必要な理由:
QWENは画像とテキストの両方を同時に処理するため、以下が必要です:
- デュアルエンコーダのロード(vision + language)
- クロスモーダルアテンション計算
- 画像-テキストペアデータ処理
- より複雑な損失計算
これにより、画像のみのトレーニングと比較してメモリ要件がおよそ2倍になります。他のvision-languageトレーニングワークフローとの比較については、類似のマルチモーダルトレーニングの課題をカバーするWAN 2.2トレーニングガイドを参照してください。
ソフトウェアスタックインストール:
リポジトリをクローンして必要な依存関係をインストールすることでQWENトレーニングフレームワークをインストールします。パラメータ効率的ファインチューニング、メモリ効率的オプティマイザー、分散トレーニングサポートのための追加パッケージを追加します。
ベースQWENモデルのダウンロード:
Hugging Face CLIを使用してQwen2-VLベースモデルをダウンロードし、LoRAトレーニングのためにローカルモデルディレクトリに保存します。
ベースモデルは約14GBです。十分なディスク容量を確保してください。
QWENモデルバリアント
- Qwen2-VL-2B: 最小、より速いトレーニング、性能は劣る
- Qwen2-VL-7B: 品質とスピードの推奨バランス
- Qwen2-VL-72B: 最高品質、トレーニングにマルチGPUが必要
このガイドは、ほとんどのユースケースに最適な7Bバリアントに焦点を当てています。
トレーニング環境の検証:
実際のトレーニングを開始する前にセットアップをテストします。GPUアクセスとメモリ容量を確認し、適切な設定でQwen2-VLモデルをロードして、すべてが正しく動作することを確認します。
これがエラーなく実行されれば、環境はトレーニングの準備ができています。
インフラストラクチャが事前構成されたマネージドトレーニング環境については、Apatero.comが自動依存関係管理とモデルダウンロードを備えたQWEN LoRAトレーニングを提供し、セットアップの複雑さを排除します。
Vision-Languageデータセット準備
QWEN LoRAトレーニングには、ペアの画像-指示-出力データセットが必要です。データセットの品質は、他のどの要因よりもトレーニングの成功を決定します。
データセット構造:
各トレーニングサンプルには以下が含まれます:
- 入力画像: 編集される元の画像
- 編集指示: 希望する編集の自然言語記述
- 出力画像: 編集適用後の結果
- (オプション)参照画像: 編集のためのスタイルまたはコンテンツ参照
トレーニングサンプルの例:
各トレーニングサンプルには、入力画像、希望する編集を説明する指示テキスト、結果を示す出力画像、スタイルガイダンスのためのオプションの参照画像が含まれます。
データセットサイズ要件:
トレーニング目標 | 最小サンプル数 | 推奨サンプル数 | トレーニング期間 |
---|---|---|---|
単一編集タスク | 100-150 | 300-500 | 4-6時間 |
マルチタスク(2-3編集) | 200-300 | 500-800 | 6-10時間 |
複雑なドメイン(建築、医療) | 300-500 | 800-1200 | 8-14時間 |
ブランドスタイル一貫性 | 400-600 | 1000+ | 10-16時間 |
より多くのデータはほぼ常に結果を改善しますが、タスクタイプごとに1000サンプルを超えると収穫逓減があります。
トレーニングデータの収集:
アプローチ1: 手動作成
特殊なタスクの場合、手動で前後のペアを作成します:
- 入力画像をソース(製品、シーン、ポートレート)
- Photoshop/GIMPを使用して手動で編集(グラウンドトゥルース出力を作成)
- 編集ステップを自然言語指示として文書化
- ペアサンプルを保存
時間投資: サンプルあたり5-15分 品質: 最高(完璧なグラウンドトゥルース) 最適: 自動化が困難な特殊ドメイン
アプローチ2: 合成データ生成
既存のデータセットと画像処理を使用:
- クリーンな画像から開始
- プログラムで要素を追加(背景、物体、エフェクト)
- 元のクリーンな画像が「出力」になり、修正されたものが「入力」になる
- 指示は除去/復元プロセスを記述
時間投資: 自動化(数千のサンプルを迅速に) 品質: 変動(合成方法の品質に依存) 最適: 一般的なタスク(背景除去、物体削除)
アプローチ3: 既存データセットの適応
公開画像編集データセットを使用:
- InstructPix2Pixデータセット(17万の画像ペアと指示)
- MagicBrushデータセット(1万の画像ペアとマルチターン編集)
- フィルタリング/拡張により特定のドメインに適応
時間投資: データクリーニングとフィルタリング(数日) 品質: 良好なベースライン、ドメイン固有の補足が必要 最適: 特殊なファインチューニングの前に基礎を構築
指示作成ガイドライン:
複雑さをスキップしたいですか? Apatero は、技術的なセットアップなしでプロフェッショナルなAI結果を即座に提供します。
指示は明確で、具体的で、トレーニング目標と一致している必要があります:
良い指示の例:
- "Remove the person in red shirt from the image while preserving the background"
- "Change the sky to sunset colors with warm orange and pink tones"
- "Enhance the architectural details of the building facade while maintaining overall composition"
悪い指示の例:
- "Make it better"(曖昧すぎる)
- "Remove stuff"(何を削除するか不明確)
- "Fix the image"(何を修正する必要があるか指定していない)
指示は推論中に使用する自然言語と一致する必要があります。「背景を削除」と言う予定なら、「周辺エリアを削除」ではなく「背景を削除」でトレーニングします。
データ拡張戦略:
拡張によって効果的なデータセットサイズを増やします:
画像拡張(入力と出力の両方に適用):
- ランダムクロップ(ペア領域を維持)
- 水平反転
- 明るさ/コントラストの変動(+/- 20%)
- 解像度スケーリング(複数の解像度でトレーニング)
指示拡張(表現を変える):
- "Remove the dog" → "Delete the dog"、"Take out the dog"、"Eliminate the canine"
- 同じ編集の複数の表現でトレーニング
- 自然言語の変動に対するモデルの堅牢性を向上
データセット構成:
データセットを体系的に構造化します。入力画像用の別のディレクトリ、出力画像用、オプションの参照画像用、およびトレーニング指示と入力-出力ペア間の関係を含むメタデータファイルで構成します。
metadata.jsonフォーマット: メタデータファイルには、トレーニングサンプルの配列が含まれ、各サンプルには一意のID、入力画像パス、出力画像パス、指示テキスト、スタイルガイダンスのためのオプションの参照画像パスがあります。
データセット準備は通常、トレーニングプロジェクト全体の時間の60-70%を消費しますが、ここでの品質がトレーニングの成功を決定します。
QWEN LoRAトレーニング構成
データセットが準備できたら、最適な結果を得るためにトレーニングパラメータを構成します。
トレーニングスクリプトセットアップ:
- 必要なライブラリをインポート(LoRA構成にはpeft、モデルロードにはtransformers)
- float16精度と自動デバイスマッピングでローカルディレクトリからベースQwen2-VLモデルをロード
- LoRAパラメータの構成:
- ネットワーク次元のためにランクを64に設定
- スケーリングファクターとしてアルファを64に設定(通常はランクと等しい)
- アテンション投影レイヤー(q_proj、v_proj、k_proj、o_proj)をターゲット
- 正則化のために0.05ドロップアウトを使用
- vision-language生成のためのタスクタイプとしてCASUAL_LMを指定
- get_peft_modelを使用してベースモデルにLoRA構成を適用
- トレーニングハイパーパラメータの構成:
- チェックポイントの出力ディレクトリを設定
- 10エポックのトレーニング
- デバイスあたりバッチサイズ2、勾配蓄積ステップ4を使用(実効バッチサイズ: 8)
- 学習率を2e-4に設定
- ウォームアップ、ロギング、チェックポイント保存の間隔を構成
- 速度とメモリ効率のためにfp16混合精度トレーニングを有効化
- モデル、トレーニング引数、データセットでTrainerを初期化
- トレーニングプロセスを開始
主要なパラメータの説明:
LoRAランク(r):
- 32: 小さいLoRA、高速トレーニング、限られた容量
- 64: バランスが取れている(ほとんどのタスクに推奨)
- 128: 大きいLoRA、より多くの容量、遅いトレーニング、より高いVRAM
64から始めて、アンダーフィッティングの場合は128に増やします。
学習率:
- 1e-4: 保守的、ほとんどのシナリオで安全
- 2e-4: QWEN LoRAトレーニングの標準(推奨)
- 3e-4: 積極的、より速いトレーニング、不安定のリスク
エポック数:
- 5-8: シンプルな単一タスク専門化
- 10-15: マルチタスクまたは複雑なドメイン
- 20+: 通常はオーバーフィット、収穫逓減
バッチサイズ:
- 実際のバッチサイズ: per_device_train_batch_size
- 実効バッチサイズ: per_device × gradient_accumulation_steps
- ターゲット実効バッチサイズ: 安定したトレーニングのために8-16
24GB GPUでは、per_device_batch_size=2でaccumulation=4がうまく機能します。
ユースケース別トレーニングパラメータ:
ユースケース | ランク | 学習率 | エポック数 | バッチサイズ |
---|---|---|---|---|
背景除去 | 64 | 2e-4 | 8-10 | 8 |
スタイル転送 | 96 | 1.5e-4 | 12-15 | 8 |
ディテール強化 | 64 | 2e-4 | 10-12 | 8 |
ブランド一貫性 | 128 | 1e-4 | 15-20 | 8 |
マルチタスク一般 | 96 | 1.5e-4 | 12-15 | 8 |
トレーニング進行状況の監視:
これらのトレーニング健全性指標を監視します:
トレーニング損失:
- トレーニングの最初の50-70%で着実に減少するはず
- 最後の30%でのプラトーまたはわずかな増加は正常(モデルが収束)
- 突然のスパイクは不安定性を示す(学習率を下げる)
評価損失:
- トレーニング損失を密接に追跡するはず
- ギャップ > 20%はオーバーフィッティングを示す(エポック数を減らすかデータを増やす)
サンプル出力:
- 500ステップごとにテスト編集を生成
- 品質は徐々に改善するはず
- 品質がプラトーまたは劣化する場合、トレーニングがオーバーフィットしている可能性がある
QWEN LoRAトレーニングにおけるオーバーフィッティングの兆候
- トレーニング損失が減少し続ける一方で評価損失が増加
- モデルがトレーニング例を完璧に再現するが新しい画像で失敗
- 生成された編集が指示に従うのではなくトレーニングデータのように見える
オーバーフィッティングが発生した場合、エポック数を減らすかデータセットの多様性を増やします。
チェックポイント戦略:
500ステップごとにチェックポイントを保存します。最終チェックポイントだけを保持しないでください:
- output/checkpoint-500/
- output/checkpoint-1000/
- output/checkpoint-1500/
- output/checkpoint-2000/
各チェックポイントのパフォーマンスをテストします。多くの場合、「最良の」チェックポイントは最終的なものではありません(最終的なものはオーバーフィットしている可能性があります)。
インフラストラクチャを管理せずに簡略化されたトレーニングについては、Apatero.comがWebインターフェースを通じてデータセットをアップロードしパラメータを構成できるマネージドQWEN LoRAトレーニングを提供し、自動監視とチェックポイント管理を備えています。
トレーニング済みQWEN LoRAを本番環境で使用
トレーニングが完了したら、本番画像編集用にカスタムQWEN LoRAをデプロイします。
ComfyUIでトレーニング済みLoRAをロード:
- Load QWEN Model(ベースQwen2-VL)
- Load LoRA Weights(トレーニング済みqwen_lora.safetensors)
- Load Input Image
- QWEN Text Encode(編集指示)
- QWEN Image Edit Node(model、LoRA、image、instruction)
- Save Edited Image
LoRA重みパラメータ:
LoRAをロードする際、重み(0.0-1.0)を設定します:
- 0.5-0.7: 微妙な特殊動作、ベースモデルがまだ支配的
- 0.8-0.9: 強い特殊動作(ほとんどの使用に推奨)
- 1.0: 最大LoRA影響
- >1.0: LoRAの過剰適用(品質を低下させる可能性)
0.8から始めて、結果に基づいて調整します。
本番ワークフロー例: 製品背景除去
- 必要なライブラリをインポート(qwen_vl_utils、transformers、peft)
- float16精度と自動デバイスマッピングでベースQwen2-VL-7B-Instructモデルをロード
- アダプター名「product_bg_removal」でPeftModelを使用してトレーニング済みLoRAをロード
- Qwen2-VLモデル用のAutoProcessorをロード
- 指示テキストを作成(「背景を削除してクリーンな白いスタジオ背景に置き換える」)
- 画像とテキストコンテンツを含むチャットテンプレートとしてメッセージをフォーマット
- メッセージにチャットテンプレートを適用し、画像と一緒に処理
- 最大2048の新しいトークンでモデルを使用して編集された画像を生成
- 出力をデコードし、QWEN形式の仕様に従って処理
バッチ処理本番パイプライン:
大量本番の場合:
- ファイルパターンマッチングのためにglobをインポート
- 画像ディレクトリ、指示、出力ディレクトリを受け入れるbatch_edit_with_lora関数を定義
- globを使用して入力ディレクトリ内のすべてのJPG画像を検索
- 各画像をループ処理:
- 指示とLoRA重み0.85でmodel.edit_imageを適用
- 保存のために入力ディレクトリパスを出力ディレクトリパスに置き換え
- 結果を出力場所に保存
- 進行状況メッセージを表示
- 例: 指示「背景を削除、白に置き換え、影を維持」で100個の製品を処理
マルチLoRAワークフロー:
異なるタスクのために複数の特殊LoRAをロードします:
- Load QWEN Base Model
- Load LoRA 1(background_removal、重み0.8)
- Load LoRA 2(detail_enhancement、重み0.6)
- 両方を適用して組み合わせ効果
LoRAは加算的です。組み合わせた重みは合計で1.5-2.0を超えないようにしてください。
品質保証ワークフロー:
本番環境デプロイメントの前に:
- ホールドアウト画像でテスト: トレーニング中にモデルが見たことのない画像
- 一貫性を評価: 10個の類似画像に同じ編集を実行し、一貫性を確認
- ベースモデルと比較: LoRAが実際にベースQWENより改善することを確認
- エッジケーステスト: 異常な入力を試して失敗モードを特定
- ユーザー受け入れテスト: エンドユーザーに品質を評価してもらう
すべてのQAチェックに合格した後にのみデプロイします。
本番環境でのA/Bテスト:
LoRAありとなしで並行処理を実行します:
- image_pathとinstructionを受け入れるab_test_edit関数を定義
- バージョンA: LoRAなしのベースQWEN編集を実行
- バージョンB: カスタムLoRA付きQWEN編集を実行
- 両方の結果とメタデータ(画像パスと指示)を含む辞書を返す
時間の経過とともにどちらのバージョンがより良いパフォーマンスを発揮するかを追跡し、結果に基づいてLoRAトレーニングを改良します。
QWEN LoRAトレーニング問題のトラブルシューティング
QWEN LoRAトレーニングには特定の失敗モードがあります。それらを認識して修正することで、時間と計算を節約できます。
問題: トレーニング損失が減少しない
トレーニング中に損失が平坦なまままたは増加します。
原因と修正:
- 学習率が低すぎる: 1e-4から2e-4または3e-4に増やす
- データセットが小さすぎる: 最低100-150サンプルが必要、より多くのデータを追加
- 指示が曖昧すぎる: 指示の品質を厳格化、より具体的に
- モデルが実際にトレーニングされていない: LoRAレイヤーに勾配が流れていることを確認
問題: モデルがトレーニングデータを記憶(オーバーフィッティング)
トレーニング例では完璧だが、新しい画像で失敗します。
修正:
- エポック数を減らす: 15 → 10または8
- LoRAドロップアウトを増やす: 0.05 → 0.1
- LoRAランクを減らす: 128 → 64
- より多様なトレーニングデータを追加
問題: 編集された画像の品質がベースQWENより低い
カスタムLoRAがベースモデルより悪い結果を生成します。
原因:
- トレーニングデータの品質が悪い: グラウンドトゥルース出力が実際には良い編集ではない
- LoRA重みが高すぎる: 1.0から0.7-0.8に減らす
- トレーニングがオーバーフィット: より早いチェックポイントを使用(最終の500ステップ前)
- タスクの不一致: LoRAが一つのタスクタイプでトレーニングされ、異なるタスクに使用されている
問題: トレーニング中のCUDAメモリ不足
トレーニング中のOOMエラー。
優先順位順の修正:
- バッチサイズを減らす: 2 → デバイスあたり1
- 勾配蓄積を増やす: 実効バッチサイズを維持
- LoRAランクを減らす: 128 → 64
- 勾配チェックポイントを有効化: 速度をメモリと交換
- より小さいベースモデルを使用: Qwen2-VL-7B → Qwen2-VL-2B
問題: トレーニングが非常に遅い
予想より2-3倍長くかかります。
原因:
- バッチサイズが小さすぎる: VRAMが許せば増やす
- 勾配蓄積が高すぎる: トレーニングを遅くする、可能なら減らす
- データワーカーが多すぎる: dataloader_num_workers=2-4に設定、それ以上ではない
- CPUボトルネック: トレーニング中のCPU使用率を確認
- ディスクI/Oボトルネック: データセットがHDDの場合はSSDに移動
問題: ロード時にLoRAが出力に影響しない
トレーニング済みLoRAが効果がないように見えます。
修正:
- LoRA重みを増やす: 0.5 → 0.8または0.9
- LoRAが実際にロードされたことを確認: コンソールでロードエラーを確認
- アダプター名を確認: 複数ロードされている場合は正しいアダプターを参照していることを確認
- トレーニング例でテスト: トレーニングデータを完璧に再現するはず
最後に
カスタムQWEN LoRAトレーニングは、QWENを汎用的な画像エディターから、特定の編集要件に正確に合致する特殊ツールへと変革します。データセット準備(プロジェクト時間の60-70%)とトレーニング(4-8時間の計算)への投資は、スケールでの一貫した、ブランドに沿った、またはドメイン固有の画像編集が必要な場合に報われます。
成功するQWEN LoRAトレーニングの鍵は、量よりもデータセットの品質です。明確な指示を持つ300の高品質で正確に注釈付けされた前後のペアは、1000の平凡なペアを上回ります。データセットキュレーションに時間を費やし、グラウンドトゥルース出力がモデルに再現してほしい正確な編集品質を表していることを確認してください。
単一タスクの専門化(背景除去、特定のスタイル転送)の場合、300-500サンプルでLoRAランク64、8-10エポックで4-6時間のトレーニングで優れた結果が得られます。マルチタスクまたは複雑なドメインアプリケーションの場合、800+サンプルでランク96-128、12-15エポックに増やします。
このガイドのワークフローは、インフラストラクチャセットアップから本番環境デプロイメントとトラブルシューティングまですべてをカバーしています。小規模な実験(100-150サンプル、単一編集タスク)から始めて、トレーニングプロセスとデータセット要件を内面化します。トレーニングパイプラインに自信がついたら、より大きなマルチタスクデータセットに進みます。特定のユースケース用の事前トレーニング済みQWEN LoRAの実用的なコレクションについては、QWENスマートフォンLoRAsコレクションを参照してください。
ローカルでトレーニングするか、Apatero.comでマネージドトレーニングを使用するか(インフラストラクチャ、監視、デプロイメントを自動的に処理)にかかわらず、カスタムQWEN LoRAトレーニングをマスターすることで、ベースモデル単独では不可能な機能が提供されます。ブランドガイドラインに合致する特殊な編集、ドメイン固有の強化パイプライン、スケールでの一貫した自動編集は、すべて適切にトレーニングされたカスタムLoRAで実現可能になります。
ComfyUIをマスター - 基礎から上級まで
完全なComfyUI基礎コースに参加して、基本から高度なテクニックまですべてを学びましょう。買い切りで生涯アクセス、すべての新しいモデルと機能の更新付き。
関連記事

ComfyUI初心者が陥る10の最も一般的な間違いとその修正方法 2025年版
新規ユーザーを悩ませるComfyUI初心者の10の落とし穴を回避しましょう。VRAMエラー、モデル読み込み問題、ワークフローの問題に対する解決策を含む完全なトラブルシューティングガイド。

Anisora v3.2で360度アニメ回転:ComfyUI完全キャラクター回転ガイド2025
ComfyUIでAnisora v3.2を使用して360度アニメキャラクター回転をマスターしましょう。カメラ軌道ワークフロー、マルチビュー一貫性、プロフェッショナルなターンアラウンドアニメーション技術を学びます。

標準搭載されるべき7つのComfyUIカスタムノード(入手方法付き)
2025年にすべてのユーザーが必要とする必須のComfyUIカスタムノード。WAS Node Suite、Impact Pack、IPAdapter Plusなど、画期的なノードの完全インストールガイド。