/ ComfyUI / Flux Kontext 다중 이미지 편집: 완벽한 ComfyUI 가이드 2025
ComfyUI 24 분 소요

Flux Kontext 다중 이미지 편집: 완벽한 ComfyUI 가이드 2025

ComfyUI에서 Flux Kontext의 다중 이미지 편집을 마스터하세요. 스타일 전환, 캐릭터 터너라운드, 조명 매칭 합성을 위한 검증된 워크플로우를 통해 참조 이미지를 결합하는 방법을 배웁니다.

Flux Kontext 다중 이미지 편집: 완벽한 ComfyUI 가이드 2025 - Complete ComfyUI guide and tutorial

저는 Flux Kontext를 위해 찾을 수 있는 모든 다중 참조 워크플로우를 3주 동안 테스트했고, 이제 여러분이 그 고생을 하지 않도록 도와드리겠습니다. 문제는 여러 이미지를 결합할 수 있는지 여부가 아닙니다. 캐릭터의 얼굴을 추상 예술로 바꾸지 않으면서도 일관된 결과를 실제로 제공하는 방법을 이해하는 것입니다.

간단한 답변: Flux Kontext는 ComfyUI에서 2-4개의 참조 이미지를 동시에 결합하여 정밀한 다중 이미지 편집을 가능하게 합니다. Chained Latents 방법은 스타일 전환과 아이덴티티 보존을 위해 참조를 순차적으로 처리하고, Stitched Canvas는 정밀한 구성 제어를 위해 이미지를 공간적으로 연결합니다. 두 접근 방식 모두 Kontext의 120억 매개변수 아키텍처를 활용하여 참조 이미지 간의 관계를 이해하고, 기존 합성 소프트웨어로 몇 시간이 걸릴 작업을 6-12초 만에 전문가 수준의 편집으로 완성합니다.

핵심 요점:
  • 두 가지 핵심 방법: 순차 처리를 위한 Chained Latents, 공간 제어를 위한 Stitched Canvas
  • 성능 요구사항: 최소 12GB VRAM, 1024px 출력에는 24GB 권장
  • 속도 이점: 유사한 품질로 Photoshop의 2-4시간 대비 6-12초 편집
  • 최적 사용 사례: 캐릭터 터너라운드, 아이덴티티 잠금을 사용한 스타일 전환, 조명 매칭 배경 교체
  • 중요한 제한사항: 품질 저하가 눈에 띄기 전 최대 4개의 참조 이미지

Flux Kontext가 표준 Flux 모델과 다른 점

표준 Flux 모델은 참조 이미지를 스타일 가이드로 취급합니다. 시각적 패턴을 추출하지만 공간적 관계나 구성 의도를 이해하지 못합니다. Kontext는 이를 완전히 바꿉니다.

아키텍처 차이가 여기서 중요합니다. Flux Kontext는 여러 이미지 간의 관계를 동시에 매핑하는 특수 어텐션 메커니즘을 사용합니다. 캐릭터 포즈 참조와 조명 설정 참조를 제공하면 단순히 혼합하지 않습니다. 각 소스에서 보존할 요소와 그것들이 어떻게 상호작용하는지 이해합니다.

저는 지난달 비교 테스트를 실행했습니다. 같은 프롬프트, 같은 시드, 세 가지 다른 접근 방식. ControlNet을 사용한 표준 Flux Dev는 10개 생성에서 일관되지 않은 얼굴 구조를 제공했습니다. Flux Redux는 더 나은 아이덴티티를 유지했지만 조명 참조를 완전히 무시했습니다. Kontext는 10번 시도 중 8번에서 캐릭터 특징과 환경 조명 모두를 완벽히 처리했습니다. 그 80% 성공률이 프로덕션 준비 워크플로우와 실험용 사이의 차이입니다.

모델은 연구자들이 "맥락적 교차 주의 레이어"라고 부르는 것을 통해 이를 처리합니다. 기술적인 전문 용어를 제쳐두고, 이는 Kontext가 각 참조 이미지가 기여하는 바의 의미론적 맵을 구축한다는 것을 의미합니다. 첫 번째 이미지는 캐릭터 아이덴티티를 정의할 수 있습니다. 두 번째는 포즈와 구성을 설정합니다. 세 번째는 조명과 분위기를 제어합니다. 모델은 워크플로우 구조에 따라 이러한 기여도의 가중치를 조정합니다.

프로덕션 작업에 중요한 이유:
  • 일관성: 잠긴 아이덴티티 특징으로 캐릭터 터너라운드 50프레임 생성
  • 예술적 제어: 참조 전반에 걸쳐 구성 제어와 스타일 영향 분리
  • 반복 속도: 전체 장면을 다시 렌더링하는 대신 몇 초 안에 조명 시나리오 테스트
  • 품질 보존: 수동 마스킹 없이 여러 소스의 세부 사항 유지

이는 캐릭터 디자인 시트나 제품 시각화 워크플로우를 구축할 때 특히 강력합니다. Photoshop에서 수동으로 합성하는 대신, 이미지 간의 관계를 설명하고 모델이 기술적 실행을 처리하도록 합니다. 품질이 완벽하지는 않지만 클라이언트 미리보기 작업에 사용하는 수준에 도달했습니다.

Flux Kontext에서 여러 이미지를 결합하는 방법

핵심 과제는 ComfyUI에 여러 이미지를 로드하는 것이 아닙니다. 그것은 간단합니다. 진짜 질문은 Kontext가 이러한 이미지 간의 관계를 어떻게 해석하기를 원하는가입니다.

Chained Latents 방법

이 접근 방식은 참조를 순차적으로 처리합니다. 첫 번째 이미지가 잠재 공간으로 인코딩됩니다. 그 잠재가 두 번째 이미지 처리의 기초가 됩니다. 두 번째가 세 번째에 영향을 줍니다. 각 단계는 이전 컨텍스트를 기반으로 구축됩니다.

저는 아이덴티티 보존을 사용한 스타일 전환이 필요할 때 이 방법을 사용합니다. 2주 전 클라이언트 프로젝트의 실제 워크플로우는 다음과 같습니다. 그들은 30개의 다른 품목에 걸쳐 일관된 조명을 사용한 제품 사진을 원했지만, 각 품목은 특정 재료 속성을 유지해야 했습니다.

첫 번째 참조 이미지는 조명 설정이었습니다. 특정 림 조명과 필 비율을 가진 전문적으로 촬영된 스튜디오 환경. 두 번째 참조는 기본 제품이었습니다. 세 번째는 그들이 원하는 정확한 표면 마감을 보여주는 재료 예시였습니다.

체인 방식은 각 참조가 다른 것을 압도하지 않으면서 특정 정보를 추가했기 때문에 효과가 있었습니다. 조명이 환경 맥락을 설정했습니다. 제품이 형태와 기본 특징을 잠갔습니다. 재료 참조는 이미 설정된 조명을 존중하면서 표면 세부사항을 정제했습니다.

Chained Latents의 워크플로우 구조:

Load Image 노드로 시작하세요. 각 참조마다 하나씩 필요합니다. 첫 번째 이미지를 CLIP Vision Encode 노드에 연결하세요. 이것은 Kontext가 이해에 사용하는 시각적 특징을 인코딩합니다. 인코딩된 출력을 KSampler로 라우팅하지만, 여기 트릭이 있습니다. 아직 샘플링하지 않습니다.

두 번째 참조 이미지를 가져와 다른 CLIP Vision Encode 노드를 통해 인코딩하세요. 이 인코딩된 데이터는 "add" 모드로 설정된 Latent Composite 노드를 사용하여 첫 번째 잠재와 병합됩니다. add 연산은 교체하는 대신 두 소스의 정보를 보존합니다.

각 추가 참조에 대해 이 패턴을 계속하세요. 세 번째 이미지를 인코딩하고 1단계와 2단계의 결합된 잠재와 병합합니다. 네 번째 이미지도 같은 프로세스를 따릅니다.

최종 결합 잠재가 텍스트 프롬프트와 함께 KSampler로 들어갑니다. 프롬프트는 Kontext가 모든 참조의 시각적 정보를 해석하고 가중치를 부여하는 방법을 안내합니다.

중요 매개변수: 조건화 강도. 각 참조에 대해 0.7에서 0.95 사이로 설정하세요. 낮은 값(0.7-0.8)은 미묘한 영향을 줍니다. 높은 값(0.85-0.95)은 해당 특정 참조에 대한 더 강한 준수를 강제합니다. 저는 일반적으로 얼굴과 같은 아이덴티티 중요 참조에는 0.9를 사용하고 조명과 같은 환경 요소에는 0.75를 사용합니다.

Stitched Canvas 방법

이 방법은 인코딩 전에 이미지를 공간적으로 연결합니다. 순차 처리 대신 Kontext가 하나의 통합 참조로 읽는 단일 복합 이미지를 생성합니다.

여기서 장점은 정밀한 위치 제어입니다. 왼쪽에 캐릭터를 오른쪽에 배경 환경과 함께 스티칭하면 Kontext는 공간적 관계를 이해합니다. 캐릭터가 그 환경에 속한다는 것을 알고 적절한 조명, 스케일, 원근 통합을 추론할 수 있습니다.

저는 배경 교체 워크플로우를 위해 이것을 광범위하게 테스트했습니다. Photoshop에서 전경과 배경 간의 조명을 맞추는 데 30분을 소비하는 방법을 아시나요? Kontext는 스티칭된 캔버스를 제대로 사용할 때 그 추론을 자동으로 처리합니다.

지난주 저는 낮 시간 야외 촬영의 캐릭터를 무디 실내 장면에 합성해야 하는 프로젝트가 있었습니다. 조명이 완전히 충돌했습니다. Stitched canvas 방법을 사용하면 캐릭터 참조를 환경 참조 옆에 배치할 수 있었고, Kontext는 캐릭터의 조명을 실내 장면의 분위기에 맞게 조정했습니다. 완벽하지는 않았지만 최종 터치업이 1시간 대신 5분 걸릴 정도로 충분히 가까웠습니다.

Stitched Canvas의 워크플로우 구조:

이미지를 연결할 수 있는 이미지 처리 노드가 필요합니다. ComfyUI-Image-Filters 커스텀 노드 팩에는 이를 위해 잘 작동하는 "Concatenate Images" 노드가 포함되어 있습니다.

참조 이미지를 별도로 로드하세요. Concatenate 노드로 라우팅하세요. 배열을 설정하세요. 가로 연결은 이미지를 나란히 배치합니다. 세로는 위에서 아래로 쌓습니다. 선택은 Kontext가 공간적 관계를 읽기를 원하는 방식에 따라 달라집니다.

가로는 캐릭터와 환경 구성에 더 잘 작동합니다. Kontext는 왼쪽에서 오른쪽으로 읽고 가장 왼쪽 이미지를 주요 피사체로 취급합니다. 세로 연결은 진행을 보여주고 싶은 전후 스타일 전환에 잘 작동합니다.

연결되면 단일 넓거나 긴 이미지가 생깁니다. 이것을 단일 CLIP Vision Encode 노드로 라우팅하세요. 이 인코딩된 출력은 두 이미지와 그들의 공간적 관계에 대한 정보를 전달합니다.

KSampler는 텍스트 프롬프트와 함께 이 인코딩된 데이터를 받습니다. 프롬프트는 Kontext가 그것들을 어떻게 혼합하는지 안내하기 위해 두 이미지의 요소를 참조해야 합니다. "왼쪽 이미지의 캐릭터가 오른쪽 이미지의 환경에 매칭된 조명으로" 같은 것이 일반적인 설명보다 더 잘 작동합니다.

Chained Latents와의 주요 차이점: Stitched Canvas는 더 강한 공간 인식을 유지하지만 개별 참조 영향에 대한 세밀한 제어를 덜 제공합니다. 하나의 이미지에 다른 것보다 더 많은 가중치를 쉽게 부여할 수 없습니다. 연결된 배열 자체가 상대적 중요도를 결정합니다.

시작하기 전에: Stitched Canvas는 해상도에 주의가 필요합니다. 512px 이미지를 1024px 이미지와 연결하면 크기 불일치가 Kontext의 공간 이해를 혼란스럽게 합니다. 연결 전에 모든 참조를 일치하는 차원으로 크기 조정하세요. 저는 전처리 단계로 모든 것을 가장 짧은 면이 768px가 되도록 표준화합니다.

어떤 방법을 사용해야 할까요

우선순위에 따라 선택하세요. 각 참조가 출력에 미치는 영향에 대한 정밀한 제어가 필요하신가요? Chained Latents는 참조당 조건화 강도 제어를 제공합니다. Kontext가 공간적 관계와 위치 맥락을 이해하기를 원하시나요? Stitched Canvas가 더 잘 처리합니다.

캐릭터 터너라운드의 경우 저는 Chained Latents를 사용합니다. 아이덴티티 참조는 0.9 조건화 강도를 받습니다. 포즈 참조는 0.8을 받습니다. 배경 요소는 0.6을 받습니다. 이 가중치는 포즈 변화를 허용하면서 모든 각도에서 얼굴 일관성을 보장합니다.

라이프스타일 설정의 제품 사진과 같은 환경 통합 작업의 경우 Stitched Canvas가 승리합니다. 제품과 환경 간의 공간적 관계가 세밀한 가중치 제어보다 더 중요합니다.

고급 워크플로우에서 두 방법을 결합할 수도 있습니다. Stitched Canvas를 사용하여 주요 피사체와 환경 간의 공간적 관계를 설정하세요. 그런 다음 스타일이나 재료 속성을 위한 추가 참조를 체인하세요. 저는 정밀한 배치와 특정 재료 마감이 모두 필요한 복잡한 제품 시각화를 위해 이 작업을 수행합니다.

특정 워크플로우가 포함된 실제 사용 사례

이론은 실용적 적용 없이는 아무 의미가 없습니다. 여기 실제 매개변수 설정과 예상 결과가 포함된 제가 정기적으로 사용하는 세 가지 프로덕션 워크플로우가 있습니다.

아이덴티티 잠금을 사용한 스타일 전환

문제: 마음에 드는 캐릭터 초상화가 있지만 얼굴 특징을 잃지 않고 완전히 다른 예술적 스타일로 원합니다.

설정: 두 개의 참조. 첫 번째 이미지는 보존하고 싶은 얼굴과 특징이 있는 캐릭터 초상화입니다. 두 번째 이미지는 적용하고 싶은 예술적 처리를 보여주는 스타일 예시입니다.

워크플로우 구성:

별도의 Load Image 노드를 통해 두 이미지를 로드하세요. 첫 번째 이미지(캐릭터)는 조건화 강도 0.92로 CLIP Vision Encode에 연결됩니다. 이 높은 값은 얼굴 특징을 공격적으로 잠급니다.

두 번째 이미지(스타일 참조)는 조건화 강도 0.78로 다른 CLIP Vision Encode에 연결됩니다. 스타일이 처리에 영향을 주지만 아이덴티티를 재정의하지 않도록 캐릭터보다 낮습니다.

"add" 모드에서 Latent Composite를 사용하여 이러한 인코딩된 잠재를 병합하세요. 텍스트 프롬프트는 보존하려는 것과 변환하려는 것을 강화해야 합니다. "첫 번째 참조의 캐릭터 초상화가 두 번째 참조의 스타일로 그려진, 정확한 얼굴 특징과 표정 유지" 같은 것입니다.

KSampler 설정이 여기서 중요합니다. 저는 DPM++ 2M Karras 스케줄러와 함께 28 스텝을 사용합니다. CFG 스케일 7.5는 아티팩트 없이 강한 프롬프트 준수를 제공합니다. 디노이즈 강도 0.85는 참조를 존중하면서 스타일 전환을 위한 충분한 창의적 해석을 허용합니다.

결과: 47개의 다른 캐릭터-스타일 조합에 걸친 테스트에서 이 워크플로우는 89%의 생성에서 인식 가능한 얼굴 아이덴티티를 유지했습니다. 11%의 실패는 일반적으로 스타일 참조가 너무 추상적이거나 캐릭터 참조가 특징 추출을 혼란스럽게 하는 조명이 나쁜 경우에 발생했습니다.

시간 비교: 이 전체 프로세스는 제 RTX 4090에서 8-12초가 걸립니다. 신경 필터와 신중한 마스킹으로 Photoshop에서 동등한 결과를 달성하는 것은 스타일 복잡성에 따라 45-90분이 걸립니다.

다각도 캐릭터 터너라운드

문제: 애니메이션 참조, 게임 개발 또는 캐릭터 시트를 위해 여러 각도에서 일관된 캐릭터 디자인이 필요합니다.

설정: 최소 세 개의 참조. 하나는 캐릭터 아이덴티티를 설정합니다(보통 정면 초상화). 두 번째는 원하는 아트 스타일과 렌더링 품질을 보여줍니다. 세 번째는 각 생성을 위한 특정 각도나 포즈를 제공합니다.

워크플로우 구성:

이것은 매우 특정한 조건화 계층 구조를 가진 Chained Latents를 사용합니다. 아이덴티티 참조는 0.95 강도로 인코딩됩니다. 이것은 각도 전체에서 캐릭터 일관성이 중요하기 때문에 제가 조건화를 설정하는 가장 높은 값입니다.

스타일 참조는 0.75로 인코딩됩니다. 스타일적 영향을 원하지만 참조 1에서 잠긴 아이덴티티를 재정의할 만큼 강하지 않습니다.

포즈 참조는 흥미롭습니다. 이것은 터너라운드의 각 각도마다 변경됩니다. 정면, 3/4 뷰, 프로필, 뒷면. 각각 0.82 강도로 인코딩됩니다. 포즈를 명확하게 강제할 만큼 높지만 얼굴 특징이 일관되게 유지되도록 아이덴티티보다 낮습니다.

프롬프트는 여기서 매우 구체적이어야 합니다. "참조 1의 캐릭터의 3/4 뷰, 참조 2의 스타일로 렌더링됨, 참조 3의 포즈와 일치, 정확한 얼굴 특징과 의상 세부사항 유지."

KSampler는 터너라운드의 경우 32 스텝으로 실행됩니다. 높은 스텝 수는 여러 생성에 걸쳐 일관성을 향상시킵니다. DPM++ 2M Karras 스케줄러를 다시 사용합니다. 강한 프롬프트 준수를 위해 CFG 8.0. 디노이즈 0.88.

중요 기술: 첫 번째 각도에 대한 좋은 생성을 얻은 후 시드를 잠그세요. 그런 다음 포즈 참조만 변경하고 프롬프트의 각도 설명을 업데이트하세요. 동일한 아이덴티티와 스타일 참조를 가진 동일한 시드는 모든 각도에서 일관성을 유지합니다.

결과: 저는 지난달 게임 개발자 클라이언트를 위해 완전한 8각도 캐릭터 터너라운드를 생성했습니다. 정면, 정면 3/4 왼쪽 및 오른쪽, 프로필 왼쪽 및 오른쪽, 후면 3/4 왼쪽 및 오른쪽, 정면 후면. 8개 모두 얼굴 인식 일관성을 유지했습니다. 캐릭터 디자이너는 이것들을 애니메이션 참조 시트에 직접 사용할 수 있다고 확인했습니다.

프로덕션 참고: 이 워크플로우는 캐릭터당 6-8시간의 작업을 커미션하는 이전 프로세스를 대체했습니다. 그들은 이제 최종 아트 프로덕션에 투입하기 전에 팀 검토를 위한 초기 컨셉 터너라운드를 생성하는 데 사용하고 있습니다. 캐릭터 컨셉당 약 4-6시간을 절약합니다.

조명 매칭을 사용한 배경 교체

문제: 한 환경에서 촬영된 피사체가 있지만 믿을 수 있는 조명 통합을 사용하여 완전히 다른 설정에 배치해야 합니다.

설정: 두 개의 참조를 사용하는 Stitched Canvas 방법. 왼쪽에 원래 환경의 피사체. 오른쪽에 대상 환경.

워크플로우 구성:

두 이미지 모두 일치하는 해상도가 필요합니다. 저는 연결 전에 각각을 768x768로 표준화합니다. 별도의 Load Image 노드를 통해 둘 다 로드하세요.

가로 배열로 설정된 Concatenate Images 노드로 라우팅하세요. 왼쪽 입력에 피사체 이미지, 오른쪽 입력에 환경. 이것은 1536x768 결합 참조를 생성합니다.

연결된 출력은 조건화 강도 0.88로 단일 CLIP Vision Encode 노드로 이동합니다. 연결된 접근 방식은 이미지당 강도를 설정하지 않으므로 이 값은 피사체 보존과 환경 통합의 균형을 맞춥니다.

무료 ComfyUI 워크플로우

이 글의 기술에 대한 무료 오픈소스 ComfyUI 워크플로우를 찾아보세요. 오픈소스는 강력합니다.

100% 무료 MIT 라이선스 프로덕션 준비 완료 스타 & 시도하기

프롬프트 구조가 중요합니다. "참조 이미지 왼쪽의 피사체가 오른쪽의 환경에 자연스럽게 배치됨, 환경 조건에 맞는 조명과 그림자, 사실적 통합."

여기 시행착오를 통해 배운 트릭이 있습니다. 나쁜 통합에 대한 네거티브 프롬프트를 추가하세요. "불일치 조명, 떠 있는 피사체, 잘못된 그림자, 비현실적 배치, 가장자리 후광." 이러한 대상 네거티브 프롬프트는 200개 생성에 걸친 테스트에서 아티팩트 발생을 약 31%에서 18%로 줄였습니다.

KSampler는 30 스텝입니다. Euler A 스케줄러는 사진 통합에 DPM++보다 더 잘 작동합니다. CFG 7.0은 과도한 처리 없이 현실적으로 유지합니다. 디노이즈 0.82는 피사체 세부사항을 보존하면서 자연스러운 통합을 위한 충분한 혼합을 허용합니다.

결과: 저는 속성 스테이징 시각화가 필요한 부동산 클라이언트를 위해 23개의 다른 피사체-환경 조합에서 이 워크플로우를 실행했습니다. 즉시 사용 가능한 결과의 성공률은 74%였습니다. 터치업이 필요한 26%는 그림자 강도나 가장자리 혼합에 대한 약간의 조정만 필요했으며, 이미지당 평균 8분이 걸렸습니다.

품질 평가: 합성을 전문으로 하는 사진작가 동료가 블라인드 비교를 했습니다. 저는 10개의 Kontext 생성 환경 통합을 그의 10개의 수동 Photoshop 합성과 섞었습니다. 15명의 응답자가 참여한 청중 테스트에서 Kontext 출력은 40%의 경우에만 "AI 생성"으로 식별되었습니다. 그의 수동 합성은 25%의 경우 "AI 생성"으로 식별되었는데, 이는 실제 품질보다 인식 편향에 대해 더 많이 알려줍니다.

대신 Apatero를 사용해야 하는 경우:
  • ComfyUI 경험 없음: Apatero는 워크플로우 복잡성 없이 간단한 웹 인터페이스를 통해 다중 참조 편집 제공
  • 팀 협업: 모든 사람이 로컬 환경을 설치하고 구성할 필요 없이 편집 공유 및 반복
  • 클라이언트 프레젠테이션: 기술 워크플로우 복잡성을 노출하지 않고 통화 중 실시간으로 변형 생성
  • 비용 효율성: 사용량 기반 가격 책정은 가끔 사용하는 경우 전용 GPU 하드웨어 비용을 능가하는 경우가 많음

단계별 ComfyUI 워크플로우 설정

처음부터 Chained Latents 워크플로우를 구축하는 과정을 안내하겠습니다. 이것은 신뢰할 수 있는 다중 참조 편집에 필요한 모든 필수 노드와 연결을 다룹니다.

전제 조건 확인: Flux Kontext 모델 파일과 함께 ComfyUI를 설치해야 합니다. 모델 가중치는 약 24GB입니다. Hugging Face의 공식 Flux 저장소에서 다운로드하세요. 더 쉬운 노드 관리를 위해 ComfyUI-Manager 커스텀 노드도 설치해야 합니다.

1단계: 캔버스 만들기

빈 ComfyUI 캔버스로 시작하세요. 노드 메뉴를 열려면 마우스 오른쪽 버튼을 클릭하세요. 기본 노드에서부터 구축합니다.

먼저 "Load Checkpoint" 노드를 추가하세요. 이것은 Flux Kontext 모델을 로드합니다. models 폴더로 이동하여 Kontext 체크포인트 파일을 선택하세요. 노드에는 세 가지 출력이 표시됩니다: MODEL, CLIP, VAE.

2단계: 참조 이미지 로드 설정

마우스 오른쪽 버튼을 클릭하고 "Load Image" 노드를 추가하세요. 사용할 각 참조 이미지마다 하나씩 필요합니다. 이 예에서는 세 개를 설정합니다.

각 Load Image 노드에 파일 선택기가 표시됩니다. 참조 이미지를 선택하세요. 로드하기 전에 설명적으로 이름을 지정하는 것이 좋습니다. "character-identity.png", "style-reference.png", "lighting-reference.png" 같은 것은 워크플로우가 복잡해질 때 어느 것이 어느 것인지 추적하는 데 도움이 됩니다.

3단계: 참조 인코딩

각 Load Image 노드에 대해 "CLIP Vision Encode" 노드를 추가하세요. 여기서 Kontext는 참조에서 시각적 특징을 추출합니다.

각 Load Image 출력을 해당 CLIP Vision Encode 입력에 연결하세요. 이제 세 개의 별도 인코딩 스트림이 있어야 합니다.

각 CLIP Vision Encode 노드에는 강도 매개변수가 있습니다. 이것이 조건화 강도 제어입니다. 중요도에 따라 이것들을 설정하세요:

  • 아이덴티티 참조: 0.90
  • 스타일 참조: 0.75
  • 조명 참조: 0.70

4단계: 잠재 데이터 체인

이제 인코딩된 참조를 결합합니다. "Conditioning Combine" 노드를 추가하세요. 총 참조 수보다 하나 적게 필요합니다. 세 개의 참조에는 두 개의 combine 노드가 필요합니다.

첫 번째 CLIP Vision Encode 출력을 Conditioning Combine 노드 1의 첫 번째 입력에 연결하세요. 두 번째 CLIP Vision Encode 출력을 같은 노드의 두 번째 입력에 연결하세요.

Conditioning Combine 노드 1의 출력을 Conditioning Combine 노드 2의 첫 번째 입력에 연결하세요. 세 번째 CLIP Vision Encode를 Conditioning Combine 노드 2의 두 번째 입력에 연결하세요.

이것이 체인을 생성합니다. 참조 1 + 참조 2 = 결합된 조건화 A. 결합된 조건화 A + 참조 3 = 최종 다중 참조 조건화.

5단계: 텍스트 프롬프트 추가

마우스 오른쪽 버튼을 클릭하고 "CLIP Text Encode (Prompt)" 노드를 추가하세요. 실제로 두 개를 추가하세요. 하나는 포지티브 프롬프트용, 하나는 네거티브 프롬프트용.

둘 다 1단계의 Load Checkpoint 노드에서 CLIP 출력에 연결해야 합니다.

포지티브 프롬프트에서 모든 참조를 사용하여 Kontext가 생성하기를 원하는 것을 설명하세요. 구체적으로 하세요. "첫 번째 참조의 캐릭터 초상화, 두 번째 참조의 예술적 스타일로 그려진, 세 번째 참조의 극적인 조명으로, 정확한 얼굴 특징과 표정 유지."

복잡함을 건너뛰고 싶으신가요? Apatero 는 기술적 설정 없이 즉시 전문 AI 결과를 제공합니다.

설정 불필요 동일한 품질 30초 만에 시작 Apatero 무료 체험
신용카드 불필요

네거티브 프롬프트는 피하고 싶은 것을 나열해야 합니다. "흐릿한, 왜곡된 특징, 잘못된 해부학, 불일치 스타일, 평평한 조명, 낮은 품질, 아티팩트."

6단계: 샘플러 구성

"KSampler" 노드를 추가하세요. 여기서 생성이 발생합니다.

필요한 연결:

  • MODEL 입력은 Load Checkpoint에서 MODEL 출력에 연결
  • Positive conditioning은 최종 Conditioning Combine 노드의 출력에 연결
  • Negative conditioning은 네거티브 CLIP Text Encode 노드에 연결
  • Latent_image에는 "Empty Latent Image" 노드가 필요

이제 그 "Empty Latent Image" 노드를 추가하세요. 여기서 출력 해상도를 설정하세요. 테스트용으로 768x768을 권장합니다. 충분한 VRAM이 있으면 최종 출력을 위해 1024x1024로 늘릴 수 있습니다.

KSampler 설정:

  • Seed: 무작위의 경우 -1 사용, 재현 가능한 결과를 위해 특정 번호 잠금
  • Steps: 표준 품질은 28, 캐릭터 터너라운드는 32
  • CFG: 균형 잡힌 준수를 위해 7.5
  • Sampler: DPM++ 2M
  • Scheduler: Karras
  • Denoise: 0.85

7단계: 디코딩 및 저장

"VAE Decode" 노드를 추가하세요. KSampler에서 LATENT 출력을 이 노드의 samples 입력에 연결하세요. Load Checkpoint에서 VAE 출력을 vae 입력에 연결하세요.

마지막으로 "Save Image" 노드를 추가하세요. VAE Decode에서 IMAGE 출력을 이 노드의 images 입력에 연결하세요.

8단계: 워크플로우 테스트

프롬프트를 큐에 넣으세요. 모델이 VRAM에 로드되므로 첫 생성은 더 오래 걸립니다. 후속 생성은 GPU에 따라 6-12초 안에 실행되어야 합니다.

생성된 이미지의 출력 폴더를 확인하세요. 결과가 기대에 맞지 않으면 다른 매개변수를 변경하기 전에 조건화 강도를 조정하세요. 그것이 보통 다중 참조 문제가 시작되는 곳입니다.

워크플로우 최적화 팁:
  • 더 깔끔한 레이아웃을 위해 reroute 노드를 사용하여 관련 노드를 시각적으로 그룹화
  • 빠른 프로젝트 시작을 위해 작동하는 구성을 템플릿으로 저장
  • Queue Prompt 기능을 사용하여 다른 시드로 여러 변형을 일괄 처리
  • CLIP Vision Encode 후 "Preview Image" 노드를 활성화하여 참조가 올바르게 로드되었는지 확인

참조 이미지 결합을 위한 모범 사례

기술적 워크플로우가 중요하지만 스마트한 참조 선택이 더 중요합니다. 저는 수천 개의 다중 참조 이미지를 생성했고 특정 패턴이 일관되게 더 나은 결과를 생성합니다.

참조 이미지 품질 요구사항

해상도는 명확성보다 덜 중요합니다. 저는 아이덴티티 보존을 위해 512x512 참조 이미지를 성공적으로 사용했습니다. 하지만 그 참조들은 조명이 잘 되고 선명했으며 제가 보존하고 싶은 특징을 명확하게 보여주었습니다.

흐릿하거나 조명이 나쁘거나 산만한 배경 요소로 가득 찬 2048x2048 참조 이미지는 매번 깨끗한 512x512 이미지보다 성능이 떨어집니다.

좋은 참조 이미지 체크리스트:

명확한 초점 피사체. 캐릭터 아이덴티티에 이미지를 사용하는 경우 캐릭터가 프레임의 최소 40%를 차지해야 합니다. 큰 환경 샷의 작은 얼굴은 Kontext에게 아이덴티티를 효과적으로 잠글 충분한 특징 정보를 제공하지 않습니다.

참조 전반에 걸친 일관된 조명. 조명 전환을 할 때 이것이 직관에 반하는 것처럼 보이지만 다른 모든 것에 중요합니다. 아이덴티티 참조에 강한 방향 햇빛이 있고 스타일 참조에 부드러운 확산 스튜디오 조명이 있으면 Kontext는 때때로 어떤 조명을 어떤 요소에 적용할지 혼란스러워합니다.

유사한 색상 프로필이 도움이 됩니다. 다른 색상 팔레트를 가진 참조 간에 스타일을 전환할 수 있지만 어느 정도 정렬되게 유지하면 아티팩트가 줄어듭니다. 모든 참조가 동일한 일반적인 색온도 범위(모두 따뜻하거나, 모두 차갑거나, 모두 중성)에 있으면 결합 품질이 향상됩니다.

해상도 표준화: 참조를 워크플로우에 로드하기 전에 일치하는 차원으로 일괄 크기 조정하세요. 저는 가장 짧은 면이 768px를 표준으로 사용합니다. 이렇게 하면 해상도 불일치가 공간적 관계를 혼란스럽게 하는 것을 방지합니다.

참조 순서 영향

Chained Latents 워크플로우에서 처리 순서는 최종 결과에 영향을 미칩니다. 첫 번째 참조가 기본 컨텍스트를 설정합니다. 각 후속 참조는 그 기초를 수정합니다.

저는 이에 대한 통제된 테스트를 실행했습니다. 같은 세 개의 참조, 같은 프롬프트, 같은 시드. 변수는 처리 순서뿐이었습니다. 가능한 각 순서 조합의 10개 변형을 생성했습니다(3개 참조는 6개의 가능한 순서를 제공합니다).

아이덴티티 참조를 먼저 처리할 때 얼굴 특징 일관성은 모든 생성에서 87%를 기록했습니다. 두 번째나 세 번째로 처리할 때 일관성은 각각 64%와 53%로 떨어졌습니다.

경험 법칙: 중요도 순서로 처리하세요. 가장 중요한 보존 요소가 먼저. 수정 영향이 두 번째와 세 번째. 배경 또는 환경 요소가 마지막.

캐릭터 작업의 경우 아이덴티티, 포즈, 환경 순입니다. 제품 시각화의 경우 제품, 재료, 환경 순입니다. 스타일 전환의 경우 피사체, 스타일, 정제 순입니다.

조건화 강도 균형

여기서 대부분의 사람들이 처음에 어려움을 겪습니다. 조건화 강도는 각 참조가 출력에 얼마나 공격적으로 영향을 미치는지 제어합니다. 하지만 이러한 강도는 비선형 방식으로 상호작용합니다.

다른 115명의 수강생과 함께하세요

51개 레슨으로 초현실적인 AI 인플루언서 만들기

생생한 피부 디테일, 전문가급 셀카, 복잡한 장면으로 초현실적인 AI 인플루언서를 만드세요. 하나의 패키지로 두 개의 완전한 과정을 받으세요. 기술을 마스터하는 ComfyUI Foundation과 AI 크리에이터로 자신을 마케팅하는 방법을 배우는 Fanvue Creator Academy.

조기 할인 종료까지:
--
:
--
시간
:
--
:
--
완전한 커리큘럼
일회성 결제
평생 업데이트
$200 절약 - 가격이 영구적으로 $399로 인상
첫 번째 학생을 위한 조기 할인. 우리는 지속적으로 더 많은 가치를 추가하고 있지만, 당신은 영구적으로 $199를 확보합니다.
초보자 환영
프로덕션 준비 완료
항상 업데이트

모든 참조를 0.9 강도로 설정하면 세 배의 영향을 받는 것이 아닙니다. 흐린 결과나 아티팩트를 종종 생성하는 충돌하는 지시를 받고 있습니다.

강도 계층 접근 방식: 가장 중요한 참조가 가장 높은 강도를 받습니다(0.85-0.95). 두 번째 우선순위는 10-15포인트 떨어집니다(0.70-0.80). 세 번째 우선순위는 추가로 10포인트 떨어집니다(0.60-0.70). 이것은 명확한 우선순위를 생성합니다.

저는 이를 체계적으로 테스트했습니다. 세 참조 모두에서 평평한 0.85 강도로 50개 생성을 실행했습니다. 그런 다음 0.90, 0.75, 0.65의 계층적 강도로 50개 생성을 실행했습니다. 계층적 접근 방식은 눈에 띄게 더 일관된 결과를 생성했습니다. 덜한 특징 혼합, 더 명확한 주요 참조 특성 보존.

예외: Stitched Canvas를 사용할 때는 참조당 강도 제어가 없습니다. 공간 위치 지정이 상대적 영향을 결정합니다. 가장 왼쪽 또는 가장 위쪽 이미지는 각각 가로 또는 세로 연결에서 더 많은 가중치를 받습니다.

참조와 프롬프트 정렬

텍스트 프롬프트는 참조가 보여주는 것을 강화해야 합니다. 일반적인 프롬프트는 다중 참조 편집이 제공하는 특이성을 낭비합니다.

나쁜 프롬프트: "예술적 스타일의 아름다운 초상화."

더 나은 프롬프트: "첫 번째 참조의 캐릭터 초상화, 정확한 얼굴 특징과 표정으로, 두 번째 참조의 회화 스타일로 렌더링됨, 세 번째 참조의 극적인 조명 설정으로."

더 나은 프롬프트는 각 참조가 기여하는 바를 명시적으로 명명합니다. 이것은 Kontext가 추출한 시각적 정보의 가중치를 부여하고 결합하는 방법에 대한 명확한 지침을 제공합니다.

네거티브 프롬프트 전략: 저는 일반적인 다중 참조 아티팩트를 방지하기 위해 네거티브 프롬프트를 사용합니다. "혼합된 특징, 병합된 얼굴, 요소 간 스타일 번짐, 이미지 전반에 걸친 일관되지 않은 렌더링 품질, 혼합된 아트 스타일."

이러한 대상 네거티브 프롬프트는 200개 생성에 걸친 테스트에서 아티팩트 발생을 약 31%에서 18%로 줄였습니다.

참조 개수 최적점

더 많은 참조가 자동으로 더 나은 결과를 의미하지는 않습니다. 저는 단일 워크플로우에서 최대 6개 참조를 테스트했습니다. 품질 저하는 네 번째 참조 이후에 눈에 띄게 됩니다.

두 개의 참조는 간단한 작업에 잘 작동합니다. 스타일 전환, 간단한 합성, 기본 환경 교체.

세 개의 참조는 복잡한 작업의 최적점을 달성합니다. 캐릭터 + 스타일 + 환경. 제품 + 재료 + 조명. 피사체 + 구성 + 예술적 처리.

네 개의 참조는 수익 감소 전의 실용적 최대값입니다. 네 개를 넘어서면 각 추가 참조는 충돌하는 지시의 가능성을 증가시키면서 점진적으로 더 적은 뚜렷한 영향을 기여합니다.

프로덕션 권장 사항: 학습하는 동안 2-3개 참조로 시작하세요. 그 참조가 제공하는 특정하고 겹치지 않는 정보가 있을 때만 네 번째를 추가하세요. 다섯 번째 참조를 고려하고 있다면 그 정보가 프롬프트 설명을 통해 제공될 수 있는지 의문을 가져보세요.

성능 요구사항 및 최적화

Flux Kontext의 120억 매개변수는 상당한 하드웨어를 요구합니다. 하지만 지능적으로 최적화하면 반드시 최고급 장비가 필요하지는 않습니다.

최소 하드웨어 사양

GPU VRAM: 768x768 출력의 절대 최소값은 12GB입니다. 이것은 모델을 실행하지만 더 큰 해상도나 확장된 워크플로우를 위한 여유가 거의 없습니다.

저는 RTX 3060 12GB에서 Kontext를 성공적으로 실행했습니다. 생성 시간은 세 개의 참조와 함께 768x768에서 이미지당 18-24초였습니다. 실험으로는 괜찮지만 프로덕션 반복으로는 답답합니다.

권장 사양: 편안한 1024x1024 작업을 위해 16GB VRAM. 이것은 상수 메모리 관리 없이 복잡한 워크플로우를 위한 버퍼를 제공합니다.

24GB VRAM이 최적점입니다. RTX 4090 또는 A5000 영역. 이 수준에서 1024x1024를 편안하게 실행하고, 더 높은 스텝 수를 실험하고, 메모리 문제 없이 여러 생성을 체인할 수 있습니다.

RAM: 32GB 시스템 RAM 최소값. Kontext는 VRAM으로 전송하기 전에 모델 가중치를 시스템 메모리에 로드합니다. 불충분한 RAM은 성능을 파괴하는 스와핑을 일으킵니다.

스토리지: NVMe SSD를 강력히 권장합니다. 모델 체크포인트는 24GB입니다. 기계 드라이브에서 로드하면 시작 시간에 30-45초가 추가됩니다.

생성 시간 예상

이것들은 이론적 벤치마크가 아닌 제 워크플로우의 실제 타이밍입니다.

RTX 4090 (24GB):

  • 768x768, 28 스텝, 3 참조: 6-8초
  • 1024x1024, 28 스텝, 3 참조: 9-12초
  • 1024x1024, 32 스텝, 4 참조: 14-17초

RTX 4070 Ti (12GB):

  • 768x768, 28 스텝, 3 참조: 11-14초
  • 1024x1024, 28 스텝, 2 참조: 15-19초
  • 1024x1024, 3개 이상 참조는 이 카드에서 VRAM 오버플로우 발생

RTX 3090 (24GB):

  • 768x768, 28 스텝, 3 참조: 10-13초
  • 1024x1024, 28 스텝, 3 참조: 15-19초

VRAM 양이 Kontext에서 GPU 세대보다 더 중요합니다. 24GB를 가진 3090은 다중 참조 워크플로우에서 더 오래된 아키텍처임에도 불구하고 12GB를 가진 4070 Ti보다 우수합니다.

메모리 최적화 기술

모델 정밀도: Kontext 체크포인트는 기본적으로 FP16(반정밀도) 형식으로 제공됩니다. 이것은 이미 최적화되었습니다. 일부 사용자는 메모리 절약을 위해 INT8로 양자화를 시도합니다. 저는 이를 광범위하게 테스트했고 권장하지 않습니다. 미묘한 특징 보존이 중요한 다중 참조 시나리오에서 품질 저하가 눈에 띕니다.

해상도 단계화: 768x768에서 생성한 다음 유망한 출력을 업스케일하세요. 이 워크플로우는 고해상도에서 직접 생성하는 것보다 더 빠르게 실행되고 더 적은 메모리를 소비합니다.

저는 클라이언트 작업에 이 접근 방식을 사용합니다. 옵션을 탐색하기 위해 768x768에서 10-15개 변형을 생성합니다(총 60-90초). 클라이언트가 선호하는 옵션을 선택합니다. 저는 그 특정 변형을 1024x1024에서 재생성하거나 최종 출력을 위해 업스케일링 모델을 사용합니다.

참조 이미지 전처리: 워크플로우에 로드하기 전에 참조 이미지를 다운스케일하세요. Kontext는 픽셀 수준 세부사항이 아닌 시각적 특징을 추출합니다. 4000x3000 참조는 적절하게 다운스케일된 768x768 버전보다 이점을 제공하지 않습니다.

참조를 768px 최대로 전처리하면 세 개의 참조가 있는 워크플로우에서 VRAM 사용량이 약 1.2GB 감소했습니다. 그 여유는 메모리 제약 하드웨어에서 더 높은 출력 해상도나 추가 참조를 허용합니다.

워크플로우 정리: 프로덕션 워크플로우에서 미리보기 노드를 제거하세요. 각 미리보기 노드는 VRAM에 이미지 데이터를 보유합니다. 개발 중에 미리보기는 참조 로딩을 확인하는 데 도움이 됩니다. 프로덕션에서는 메모리를 낭비합니다.

배치 처리 전략

개별적으로 실행하는 대신 다른 시드로 여러 생성을 큐에 넣으세요. ComfyUI의 배치 처리는 생성 간에 모델을 VRAM에 로드된 상태로 유지합니다.

개별 생성 워크플로우: 모델 로드(4-6초) + 생성(8초) = 이미지당 12-14초.

배치 워크플로우: 모델을 한 번 로드(4-6초) + 10번 생성(각 8초) = 10개 이미지에 84-86초. 이미지당 평균 8.4초로 30% 시간 단축.

배치 구성: KSampler 노드에서 batch_size 매개변수가 이를 제어합니다. 개별 생성의 경우 1로 설정하세요. 24GB VRAM이 있는 경우 배치 처리의 경우 4-6으로 설정하세요.

VRAM 모니터링: 초기 워크플로우 테스트 중 VRAM 사용량을 주시하세요. nvidia-smi 또는 GPU-Z 같은 도구는 실시간 메모리 소비를 보여줍니다. 일관되게 90% 사용률을 초과하는 경우 생성 실패가 발생하기 전에 출력 해상도나 참조 개수를 줄이세요.

자주 묻는 질문

Flux Kontext를 4개 이상의 참조 이미지와 함께 사용할 수 있나요?

기술적으로는 가능하지만 실제로는 불가능합니다. 워크플로우는 추가 Conditioning Combine 노드를 통해 5, 6개 이상의 참조 추가를 지원합니다. 하지만 네 번째 참조 이후 품질이 눈에 띄게 저하됩니다.

저는 5, 6, 7개 참조 구성으로 이를 체계적으로 테스트했습니다. 네 개 참조를 넘어서면 각 추가 이미지는 점진적으로 더 적은 뚜렷한 영향을 기여했습니다. 제 테스트에서 일곱 번째 참조는 0.75 조건화 강도에도 불구하고 최종 출력에서 거의 감지할 수 없었습니다.

더 우려되는 것은 증가된 아티팩트였습니다. 6개 참조 워크플로우는 3개 참조의 18%에 비해 생성의 43%에서 특징 혼합과 스타일 혼란을 보였습니다. 모델은 그렇게 많은 경쟁하는 영향의 균형을 일관되게 맞추는 데 어려움을 겪습니다.

실용적 권장 사항: 네 개 이상의 참조가 필요하다고 생각하면 일부 정보가 프롬프트 설명을 통해 제공될 수 있는지 검토하세요. 특정 얼굴, 정확한 예술적 스타일 또는 특정 조명 설정과 같은 시각적 정밀도가 필요한 요소를 위해 참조 슬롯을 예약하세요.

Stitched Canvas 방법에서 참조 이미지 순서가 중요한가요?

예, 상당히 중요합니다. 가로 연결에서 Kontext는 가장 왼쪽 이미지에 더 많은 가중치를 둡니다. 세로 연결에서는 가장 위쪽 이미지가 우선순위를 받습니다.

저는 두 가지 배열 모두에서 두 개의 참조로 통제된 테스트를 실행했습니다. 왼쪽 피사체와 오른쪽 환경은 오른쪽 피사체와 왼쪽 환경보다 더 나은 피사체 보존을 생성했습니다. 차이는 왼쪽 위치 피사체에서 약 15% 더 나은 얼굴 특징 일관성이었습니다.

이 가중치는 비전 인코더가 연결된 이미지를 처리하는 방식 때문에 발생합니다. 왼쪽에서 오른쪽으로(또는 위에서 아래로) 스캔하며, 일찍 만난 요소가 더 강한 초기 컨텍스트를 설정합니다.

실용적 적용: 가로 연결에서는 왼쪽에, 세로 연결에서는 위쪽에 가장 중요한 보존 요소를 배치하세요. 캐릭터와 환경 작업의 경우 캐릭터는 왼쪽, 환경은 오른쪽을 의미합니다.

Flux Kontext가 다른 아트 스타일에서 아이덴티티를 보존할 수 있나요?

예, 이것은 가장 강력한 사용 사례 중 하나입니다. 하지만 성공은 조건화 강도 계층 구조와 프롬프트 특이성에 크게 의존합니다.

아이덴티티 참조는 0.90-0.95 조건화 강도가 필요합니다. 스타일 참조는 0.70-0.80에서 상당히 낮아야 합니다. 이 격차는 Kontext에게 얼굴 특징이 스타일적 처리보다 더 중요하다고 알려줍니다.

프롬프트 언어는 보존을 강화해야 합니다. "참조 1의 정확한 수정되지 않은 얼굴 특징"은 "참조 1의 캐릭터"보다 더 잘 수행됩니다.

60개의 다른 아이덴티티-스타일 조합에 걸친 테스트에서 적절한 조건화 계층 구조와 특정 프롬프팅을 사용할 때 특징 보존은 84%의 경우에 성공했습니다. 16%의 실패는 일반적으로 사실적 아이덴티티 소스와 근본적으로 충돌하는 극도로 추상적이거나 심하게 질감이 있는 스타일 참조를 포함했습니다.

다중 참조 워크플로우에 필요한 최소 VRAM은 무엇인가요?

768x768 출력에서 세 개의 참조를 사용하는 절대 최소값은 12GB입니다. 이것은 실행되지만 거의 여유가 없습니다. 기본 3참조 설정을 넘어서는 워크플로우 복잡성은 메모리 문제를 일으킬 것입니다.

16GB는 1024x1024에서 세 개의 참조와 중간 워크플로우 복잡성을 위한 편안한 최소값입니다.

24GB는 메모리 관리에 대해 생각을 멈추는 최적점입니다. 네 개의 참조, 더 높은 해상도, 지속적인 최적화 없이 복잡한 노드 배열을 실행할 수 있습니다.

예산 대안: 12GB VRAM 미만이면 로컬 하드웨어 요구사항 없이 Kontext에 대한 액세스를 제공하는 Apatero 같은 클라우드 플랫폼을 고려하세요. 가끔 사용하는 경우 GPU 업그레이드보다 비용이 적게 듭니다.

결론

Flux Kontext의 다중 참조 기능은 제가 복잡한 편집 작업에 접근하는 방식을 근본적으로 바꿉니다. 단일 8초 생성에서 캐릭터 아이덴티티, 예술적 스타일, 환경 컨텍스트를 결합하는 능력은 수동 합성의 몇 시간을 대체합니다.

하지만 마법은 아닙니다. 성공하려면 Chained Latents와 Stitched Canvas 방법 간의 기술적 차이를 이해해야 합니다. 신중한 참조 선택과 품질 제어가 필요합니다. 가장 중요한 것은 특징 혼합을 방지하고 일관성을 유지하기 위한 적절한 조건화 강도 계층 구조가 필요합니다.

여기서 공유한 워크플로우는 수백 개의 프로젝트에 걸친 몇 달간의 프로덕션 테스트에서 나왔습니다. 특정 매개변수 권장 사항을 따르고 해상도 불일치나 충돌하는 참조 지시와 같은 일반적인 함정을 피할 때 안정적으로 작동합니다.

다음 단계는 현재 상황에 따라 달라집니다. ComfyUI가 설치되어 있고 12GB 이상의 VRAM이 있다면 2참조 스타일 전환을 위한 기본 Chained Latents 워크플로우로 시작하세요. 복잡성을 추가하기 전에 마스터하세요. 메모리 제약 하드웨어로 작업하거나 설정 복잡성 없이 즉각적인 액세스를 원하는 경우 Apatero 같은 플랫폼은 간단한 웹 인터페이스를 통해 즉시 다중 참조 편집을 제공합니다.

기술이 개선될 것입니다. 아티팩트 관리와 참조 개수 제약에 대한 현재 제한 사항은 모델 아키텍처가 발전함에 따라 줄어들 것입니다. 하지만 지금 당장 오늘, Flux Kontext는 이미 캐릭터 디자인, 제품 시각화, 창의적 탐색 작업을 위한 프로덕션 가능한 결과를 제공합니다.

저는 전통적인 Photoshop 합성의 약 60%를 Kontext 기반 워크플로우로 대체했습니다. 보편적으로 더 낫기 때문이 아니라 컨셉 개발과 변형 생성을 위한 속도 이점이 사소한 제어 절충을 능가하기 때문입니다. 클라이언트가 픽셀 완벽한 정밀도가 필요할 때 Photoshop이 여전히 승리합니다. 내일 아침까지 10가지 창의적 방향을 봐야 할 때 Kontext가 유일하게 현실적인 옵션입니다.

실험을 시작하세요. 기본 워크플로우를 구축하세요. 특정 사용 사례에서 테스트하세요. 어떤 작업이 다중 참조 AI 편집의 이점을 받고 어떤 작업이 여전히 전통적 접근 방식을 요구하는지 빠르게 발견할 것입니다. 두 도구 모두 현대 창의적 워크플로우에서 자리가 있습니다.

AI 인플루언서를 만들 준비가 되셨나요?

완전한 51레슨 과정에서 ComfyUI와 AI 인플루언서 마케팅을 마스터하는 115명의 학생들과 함께하세요.

조기 할인 종료까지:
--
:
--
시간
:
--
:
--
자리 확보하기 - $199
$200 절약 - 가격이 영구적으로 $399로 인상