/ ComfyUI / ComfyUI中的OVI:使用Character AI的新模型同时生成视频+音频
ComfyUI 5 分钟阅读

ComfyUI中的OVI:使用Character AI的新模型同时生成视频+音频

通过本完整指南掌握ComfyUI中的OVI,涵盖2025年的安装、同步视频-音频生成、口型同步工作流程和优化技术。

ComfyUI中的OVI:使用Character AI的新模型同时生成视频+音频 - Complete ComfyUI guide and tutorial

您终于完成了完美的AI生成视频。动作流畅,构图如电影般,照明看起来专业。然后您意识到需要添加匹配的音频、对话口型同步和音效。前方是数小时的手动工作,对吧?

现在不是了。Character AI的OVI(Omni Video Intelligence)模型改变了一切。这项突破性技术可以从单个提示同时生成同步的视频和音频。您可以在ComfyUI内通过一次生成获得完美匹配的视觉效果、对话、音效,甚至精确的口型同步。

本指南将教您
  • OVI在视频生成模型中的独特之处
  • ComfyUI中的分步安装和设置
  • 如何从文本提示生成同步的视频和音频
  • 对话密集内容的高级口型同步工作流程
  • 角色语音克隆和自定义技术
  • 不同硬件配置的优化策略
  • 真实世界用例和生产工作流程

什么是OVI,为什么重要?

OVI代表AI视频生成的根本性转变。由Character AI于2025年初发布,它是第一个将视频和音频作为同一生成过程不可分割组成部分的广泛可访问模型。

传统工作流程强制您先生成视频,然后单独添加音频。这会产生同步问题,特别是在对话中,唇部动作必须与语音完美匹配。OVI通过在具有深度时间对齐的配对视频-音频数据上训练来解决这个问题。

免费ComfyUI工作流

查找本文技术的免费开源ComfyUI工作流。 开源很强大。

100%免费 MIT许可证 可用于生产 星标并试用

OVI背后的技术

OVI使用统一的Transformer架构,同时处理视觉和音频模态。根据Character AI技术博客的研究,该模型采用跨模态注意力机制,在整个生成过程中保持所见和所闻之间的紧密耦合。

将其想象成一个同时看到音乐乐谱和编舞的管弦乐队指挥。每个视觉元素都影响音频生成,反之亦然,无需后处理对齐即可创建自然同步的输出。

OVI模型变体

Character AI发布了针对不同用例优化的几个OVI变体。

模型版本 参数 最大时长 音频质量 所需VRAM 最适合
OVI-Base 7B 5秒 24kHz立体声 12GB (FP16) 测试和原型设计
OVI-Pro 14B 10秒 48kHz立体声 20GB (FP16) 专业对话场景
OVI-Extended 14B 30秒 48kHz立体声 24GB+ (FP16) 短视频内容创作
OVI-Character 14B 10秒 48kHz立体声 20GB (FP16) 一致的角色语音

Pro模型为大多数创作者提供了最佳平衡。它在RTX 4090等高端消费级GPU上运行,同时处理多个说话者的复杂对话场景。

OVI与传统视频生成的比较

在深入安装之前,您需要了解OVI相对于现有解决方案在工具包中的位置。

OVI vs 传统两阶段工作流程

传统方法完全分离视频和音频生成。

传统工作流程限制:

  • 使用Runway、Kling或Stable Diffusion Video生成视频
  • 提取帧并分析口型动作
  • 使用ElevenLabs或类似TTS生成语音
  • 使用Wav2Lip或类似工具手动将音频与视频同步
  • 通过多次迭代修正时间不匹配
  • 导出并希望一切保持对齐

OVI优势:

  • 单个提示生成视频和音频
  • 生成过程中内置完美的口型同步
  • 与视觉环境匹配的一致音频氛围
  • 自然的声音透视(距离、方向、房间音调)
  • 对话密集内容的显著时间节省

当然,如果您想要没有本地基础设施的即时结果,Apatero.com通过简单的界面提供专业的视频-音频生成。您无需管理ComfyUI安装或VRAM限制即可获得相同的同步输出。

OVI vs 现有音频感知视频模型

在OVI之前,有几个模型尝试音频同步视频,但存在重大限制。

带音频条件的Stable Video Diffusion:

  • 需要预先存在的音频轨道
  • 对音频内容的控制有限
  • 没有原生语音合成
  • 更适合音乐驱动的内容而非对话

WAN 2.2 S2V(语音转视频):

  • 从语音输入生成视频
  • 无法控制语音生成本身
  • 需要单独的TTS管道
  • 比后处理更好的口型同步,但不是真正的协同生成

我们的WAN 2.2完整指南中了解更多。

OVI的差异化因素:

  • 从头开始生成两种模态
  • 具有情感语调的自然语音合成
  • 环境感知的声音设计(回声、氛围、透视)
  • 跨生成的角色语音一致性
  • 通过联合训练实现卓越的口型同步精度

成本-性能现实

让我们检查中等使用六个月的经济性(每月50个视频-音频剪辑)。

传统分离管道:

  • 视频生成(Runway/Kling):$100-150/月 = $600-900总计
  • 音频生成(ElevenLabs Pro):$99/月 = $594总计
  • 口型同步工具(各种):$50/月 = $300总计
  • 总计:六个月$1,494-1,794

OVI本地设置:

  • RTX 4090(一次性):$1,599
  • 六个月电费:~$60
  • 前六个月总计:~$1,659

Apatero.com:

  • 按生成付费,无需设置或维护
  • 无硬件投资的即时访问
  • 保证的基础设施性能

对于定期制作对话密集内容的创作者,OVI的统一方法可以快速收回成本,同时消除工作流程复杂性。然而,如果您更喜欢托管服务,Apatero.com等平台完全消除了技术障碍

在ComfyUI中安装OVI

开始之前: OVI需要启用音频输出支持的ComfyUI版本0.3.50或更高版本。您还需要安装ComfyUI-Audio扩展以获得音频预览功能。

系统要求

最低规格:

  • ComfyUI版本0.3.50+
  • 12GB VRAM(FP16的OVI-Base)
  • 32GB系统RAM
  • 模型60GB可用存储空间
  • 支持CUDA 12.0+的NVIDIA GPU
  • 带音频库的Python 3.10或更高版本

推荐规格:

  • OVI-Pro或OVI-Extended的24GB VRAM
  • 64GB系统RAM
  • NVMe SSD以缩短模型加载时间
  • RTX 4090或A6000以获得最佳性能

步骤1:安装ComfyUI-Audio扩展

OVI需要原版ComfyUI中没有的音频处理功能。如果您是ComfyUI新手,请先查看我们的ComfyUI工作流程初学者指南

  1. 打开终端并导航到ComfyUI/custom_nodes/
  2. 使用git clone https://github.com/comfyanonymous/ComfyUI-Audio克隆音频扩展仓库
  3. 导航到ComfyUI-Audio目录
  4. 使用pip install -r requirements.txt安装依赖项
  5. 完全重启ComfyUI

通过确认音频相关节点出现在节点浏览器中来验证安装(右键菜单,搜索"audio")。

步骤2:下载OVI模型文件

OVI需要放置在ComfyUI特定目录中的多个组件。

文本编码器(所有模型必需):

  • 从Hugging Face下载google/umt5-xxl
  • 放置在ComfyUI/models/text_encoders/

音频编解码器(必需):

  • 从Character AI的模型库下载encodec_24khz.safetensors
  • 放置在ComfyUI/models/audio_codecs/

主要OVI模型文件:

对于OVI-Base(推荐起点):

  • 从Character AI的Hugging Face下载ovi-base-fp16.safetensors
  • 放置在ComfyUI/models/checkpoints/

对于OVI-Pro(最佳质量-性能平衡):

  • 下载ovi-pro-fp16.safetensors
  • 需要20GB+ VRAM
  • 放置在ComfyUI/models/checkpoints/

Character AI Hugging Face仓库找到官方模型。

步骤3:验证目录结构

您的ComfyUI安装现在应该有这些目录和文件:

主要结构:

  • ComfyUI/models/text_encoders/umt5-xxl/
  • ComfyUI/models/audio_codecs/encodec_24khz.safetensors
  • ComfyUI/models/checkpoints/ovi-pro-fp16.safetensors
  • ComfyUI/custom_nodes/ComfyUI-Audio/

文本编码器文件夹(umt5-xxl)应包含模型文件,音频编解码器文件应直接在audio_codecs中,您选择的OVI模型应在checkpoints中。

步骤4:加载官方OVI工作流程模板

Character AI提供自动处理节点连接的启动工作流程。

  1. Character AI的GitHub示例下载工作流程JSON文件
  2. 启动ComfyUI Web界面
  3. 将工作流程JSON文件直接拖入浏览器窗口
  4. ComfyUI将自动加载所有节点和连接
  5. 验证所有节点显示绿色状态(无缺失依赖项)

如果节点显示为红色,请检查所有模型文件是否在正确的目录中并重启ComfyUI。

您的第一次同步视频-音频生成

让我们使用OVI的文本转视频-音频工作流程创建您的第一个同步剪辑。这演示了使OVI独特的核心功能。

基本文本转视频-音频工作流程

  1. 加载"OVI Basic T2VA"工作流程模板
  2. 找到"Text Prompt"节点并输入场景描述
  3. 在"Audio Prompt"节点中,描述所需的声音和对话
  4. 找到"OVI Sampler"节点并配置这些设置:
    • Steps: 从40开始(更高 = 更好的质量,更长的生成时间)
    • CFG Scale: 8.0(控制提示遵守度)
    • Audio CFG: 7.0(音频遵守度的单独控制)
    • Seed: -1表示随机结果
  5. 在"Video-Audio Output"节点中设置输出参数(分辨率、FPS、音频格式)
  6. 点击"Queue Prompt"开始生成

根据硬件和剪辑长度,您的第一个同步剪辑将需要8-20分钟。这对于联合视频-音频生成是正常的。

理解OVI生成参数

Steps(去噪迭代): 更高的步数可以改善视频流畅度和音频清晰度。测试时从40开始,生产输出时增加到60-80。与仅视频模型不同,OVI需要稍高的步数,因为它同时优化两种模态。

Video CFG Scale: 控制视觉提示遵守度。7-9的范围适用于大多数场景。较低的值(5-6)允许更多创意解释。较高的值(10+)强制更严格的遵守,但可能减少自然运动。

Audio CFG Scale: 音频生成的单独控制。保持此值略低于Video CFG(通常低0.5-1.0点)。太高会导致不自然的声音语调和强制音效。

Synchronization Strength: OVI特定参数,控制视频和音频的紧密耦合程度。默认值1.0适用于大多数情况。对于需要精确口型同步的对话,增加到1.2-1.5。对于可接受松散耦合的环境场景,降低到0.7-0.9。

为OVI编写有效提示

OVI为视频和音频使用单独但相关的提示,尽管它们可以在高级工作流程中组合。

视频提示最佳实践:

  • 从角色描述和动作开始("热情说话的年轻女性...")
  • 包括相机移动("慢慢推进到脸部...")
  • 指定照明和环境("明亮的工作室照明,现代办公室背景...")
  • 提到情绪状态("兴奋的表情,活跃的手势...")

音频提示最佳实践:

  • 描述声音特征("充满活力的女性声音,清晰的发音...")
  • 在引号中包含对话("大家好,欢迎回到频道!")
  • 指定环境声音("轻微的房间回声,微妙的背景音乐...")
  • 提到情感语调("热情的表达,强调'欢迎'...")

组合提示示例:

视频:"20多岁后期年轻女性的特写,直接对着镜头说话,来自窗户的明亮自然光,现代家庭办公室背景,真诚的微笑,说话时轻微的头部动作"

音频:"带有轻微兴奋的温暖女性声音:'大家好,我今天要给你们看一些令人惊叹的东西。这将改变你对AI视频创作的看法。' 微妙的房间氛围,专业的音频质量"

想跳过复杂性吗? Apatero 无需技术设置即可立即为您提供专业的AI结果。

零设置 相同质量 30秒内开始 免费试用Apatero
无需信用卡

您的第一次生成结果

生成完成后,您将在ComfyUI输出文件夹中看到两个输出。

视频文件(MP4):

  • 以您指定的分辨率和FPS渲染
  • 包含嵌入的音轨
  • 准备立即播放
  • 如需要可单独提取

音频文件(WAV/FLAC):

  • 无损高质量音频导出
  • 包含所有对话和音效
  • 对额外的音频编辑有用
  • 已与视频时间轴同步

使用视频预览节点直接在ComfyUI中预览组合结果。检查口型同步精度、音频质量和整体一致性。

如果您想要没有技术工作流程的专业结果,请记住Apatero.com通过直观界面提供同步视频-音频生成。不需要节点图或参数调整。

高级OVI工作流程和技术

一旦您理解了基本生成,这些高级技术将显著提高您的输出质量和创意控制。

角色语音一致性

OVI最强大的功能之一是跨多个剪辑的角色语音生成和一致性。

创建角色语音配置文件:

  1. 加载"OVI Character Voice"工作流程模板
  2. 使用详细的语音描述生成您的第一个剪辑
  3. 使用"Extract Voice Embedding"节点捕获语音特征
  4. 将语音嵌入保存为预设
  5. 为具有相同角色的未来生成加载此嵌入

此工作流程确保您的角色在整个视频系列中听起来相同,这对讲故事项目和系列内容至关重要。

语音配置文件管理提示:

  • 为语音配置文件创建描述性名称("Sarah-热情-30岁-女性")
  • 按项目将嵌入存储在有组织的文件夹中
  • 记录用于生成每个语音的原始提示
  • 每5-10次生成测试语音一致性以检测漂移

多说话者对话场景

OVI在单次生成中处理多个角色之间的对话。

对话工作流程设置:

  1. 加载"OVI Multi-Speaker"工作流程模板
  2. 在音频提示中使用说话者标签:"[Speaker A]: 你好。[Speaker B]: 嗨,你好吗?"
  3. 在角色定义中为每个说话者提供语音描述
  4. 将"Speaker Separation"参数设置为1.0或更高以获得清晰的区分
  5. 生成并验证每个说话者具有独特的音频特征

对话提示示例:

视频:"两个人在咖啡馆交谈,中景显示两张脸,温暖的下午光线,休闲友好的氛围"

音频:"[Speaker A - 低沉男声]:你试过这个新的AI视频工具吗?[Speaker B - 较高女声]:还没有,但我听说了很多好事。告诉我更多!"

模型生成独特的声音、每个说话者的适当面部动作以及包括停顿和重叠的自然对话时机。

环境感知声音设计

OVI自动生成与视觉环境匹配的音频,但您可以通过特定技术增强这一点。

声学环境控制:

在您的音频提示中,指定环境特征:

  • "具有自然混响的大教堂"
  • "封闭的小汽车内部,外部声音被抑制"
  • "户外公园,远处的城市交通,鸟鸣声"
  • "具有死寂声学的录音棚"

模型调整回声、混响、背景氛围和音频透视以匹配描述的空间。这创造了沉浸式的真实感,手动声音设计需要数小时才能实现。

情感和语调控制

通过详细的音频提示控制语音情感和表达风格。

有效的情感关键词:

  • 声音语调:"兴奋"、"阴郁"、"焦虑"、"自信"、"顽皮"
  • 表达风格:"快节奏"、"审慎"、"耳语"、"喊叫"
  • 语调:"上升语调"、"疑问语气"、"强调表达"
  • 特征:"温暖友好"、"专业正式"、"随意轻松"

在对话中与特定强调标记结合:

"[兴奋,快节奏]:这太棒了![暂停,更克制]:让我准确地告诉你它是如何工作的。"

图像转视频-音频工作流程

从现有图像开始,生成匹配的视频运动和同步音频。

  1. 加载"OVI I2VA"(图像转视频-音频)工作流程
  2. 将源图像上传到"Load Image"节点
  3. 在视频提示中描述所需的运动
  4. 在音频提示中描述对话或声音
  5. OVI生成扩展您的图像的视频和匹配的音频

此工作流程擅长为角色肖像制作动画,将照片转换为说话头部视频,或为静态插图添加运动和声音。

I2VA用例:

  • 带有配音旁白的产品演示
  • 说对话的角色肖像
  • 带有时代适当声音的历史照片动画
  • 转换为视频介绍的个人资料照片

为不同硬件配置优化OVI

OVI的双模态生成是VRAM密集型的。这些优化技术帮助您在更适度的硬件上运行它。

OVI的FP8量化

全精度OVI模型需要20GB+ VRAM。FP8量化显著减少了这一点。

可用的OVI量化:

量化 VRAM使用 与FP16的质量 生成速度
FP16(原始) 20GB 100%(基准) 1.0x
FP8-E4M3 12GB 96-98% 1.15倍快
FP8-E5M2 12GB 94-96% 1.2倍快
INT8 10GB 90-93% 1.3倍快

如何使用量化的OVI模型:

  • 从Character AI的模型库下载量化版本
  • 不需要特殊设置,在ComfyUI中自动工作
  • 量化中音频质量下降略少于视频质量
  • 即使在INT8,口型同步精度仍然很高

扩展剪辑的内存管理

生成更长的剪辑需要仔细的内存管理。

基于块的生成: 不是一次生成30秒,而是分成重叠的块:

  1. 使用您的提示生成0-10秒
  2. 使用第一个剪辑的结尾作为条件生成8-18秒
  3. 使用第二个剪辑的结尾生成16-26秒
  4. 混合重叠部分以实现平滑过渡

这种技术以生成时间换取VRAM需求的显著减少。

CPU卸载: 在ComfyUI设置中启用积极的CPU卸载。OVI的架构允许将音频生成组件卸载到系统RAM,同时在GPU上保持视频生成。这以最小的速度影响将VRAM使用量减少20-30%。有关更多低VRAM策略,请参阅我们的在预算硬件上运行ComfyUI的指南

仅音频优化模式

对于需要高质量音频但可以接受较低视频分辨率的项目,使用OVI的音频优先模式。

  1. 将视频分辨率设置为512p或640p
  2. 在OVI采样器设置中启用"Audio Priority"
  3. 将音频采样率提高到最大(48kHz)
  4. 模型为音频质量分配更多计算

在低分辨率下生成进行测试,然后使用传统的升级工具单独升级视频,同时保持高质量音频。这产生比在高分辨率下生成妥协音频更好的结果。

如果优化仍然感觉太复杂,考虑Apatero.com自动管理所有基础设施。您可以在不担心VRAM、量化或内存管理的情况下获得最大质量。

真实世界的OVI用例和生产工作流程

OVI的同步视频-音频生成在多个行业中解锁了全新的工作流程。

内容创作和社交媒体

说话头部视频制作: 无需录制设备即可生成完整系列的教育或评论视频。提供脚本,描述角色,OVI就会生成具有自然表达的同步视频。

非常适合YouTube教育内容、教程系列或社交媒体解说视频。将OVI与传统屏幕录制结合以获得完整的教程。

播客视频版本: 将音频播客转换为YouTube和Spotify等平台所需的视频格式。将现有的播客音频提供给OVI的音频转视频模式,它会生成匹配的视觉内容,包括口型同步的说话头部。

游戏开发和动画

角色对话预可视化: 在游戏开发期间测试不同的对话选项,而无需为每次迭代雇用配音演员。生成带有匹配动画的角色语音,然后在最终录制之前根据结果完善脚本。

过场动画原型设计: 使用OVI生成的对话和运动阻挡完整的过场动画序列。导演可以在承诺昂贵的动作捕捉会话之前审查节奏、时机和情感表达。

电子学习和培训

教学视频创作: 生成以适当强调和清晰发音提供课程内容的一致讲师角色。创建具有统一视觉风格和语音特征的完整课程库。

语言学习内容: 在数十种语言中生成带有可见唇部动作的发音示例。学生可以同时看到和听到正确的发音,提高学习成果。有关具有姿势控制的更高级角色动画,请探索WAN 2.2 Animate

营销和广告

产品演示视频: 使用不同的配音风格、节奏和强调快速生成产品解说视频的多个版本。在投资专业制作之前A/B测试哪个版本表现最好。

本地化内容: 生成具有多种语言对话的相同视频,每种都有适当的口型同步。这消除了昂贵的配音或仅字幕解决方案。

常见OVI问题故障排除

即使安装正确,您也可能遇到特定问题。以下是经过验证的解决方案。

音频-视频不同步

症状: 唇部动作与语音时机不匹配,或音效在相应视觉事件之前/之后发生。

解决方案:

  1. 将"Synchronization Strength"参数增加到1.3-1.5
  2. 验证您使用的是模型版本的正确VAE
  3. 确保音频提示与视频提示时间轴匹配
  4. 尝试生成更短的持续时间(同步在5-8秒时改善)
  5. 检查ComfyUI-Audio扩展是否为最新版本

音频质量差或伪影

症状: 爆裂声、机器人声音、不自然的语调或音频故障。

解决方案:

  1. 将采样步骤增加到60-80(音频需要比视频更多的步骤)
  2. 验证音频编解码器文件已正确安装
  3. 降低Audio CFG比例(太高会导致伪影)
  4. 检查您的音频提示不矛盾
  5. 以更高的音频采样率生成(最小48kHz)

角色语音不一致

症状: 即使使用相同的描述,角色语音在生成之间也会改变。

解决方案:

  1. 使用语音嵌入提取和重用工作流程
  2. 使语音描述更详细和具体
  3. 设置固定种子而不是随机
  4. 如果工作流程中可用,使用"Voice Consistency"模式
  5. 考虑从第一次成功生成中提取语音配置文件

CUDA内存不足错误

症状: 生成中途因CUDA内存错误而失败。

解决方案:

  1. 切换到量化模型版本(FP8或INT8)
  2. 在ComfyUI设置中启用CPU卸载
  3. 关闭其他VRAM密集型应用程序
  4. 生成更短的剪辑(将长内容分成块)
  5. 暂时降低输出分辨率
  6. 在开始新生成之前清除ComfyUI缓存

缺少音频输出

症状: 视频成功生成但没有出现音频文件。

解决方案:

  1. 验证ComfyUI-Audio扩展已正确安装
  2. 检查工作流程中是否连接了音频输出节点
  3. 确认音频编解码器模型文件在正确的目录中
  4. 在ComfyUI设置中启用音频预览
  5. 检查输出目录的文件权限

有关此处未涵盖的持续问题,请查看Character AI GitHub Issues页面以获取最近的错误报告和社区解决方案。

生产质量的OVI最佳实践

最大质量的提示工程

分层提示结构: 将复杂场景分解为分层描述,而不是单个长提示。

而不是: "在明亮的办公室里,有显示代码的计算机屏幕,兴奋地谈论AI的女性"

使用: 视频:"30多岁后期的专业女性,商务休闲服装,活泼的面部表情和手势" 环境:"现代明亮的办公室,自然光线透过大窗户,背景中的计算机屏幕" 相机:"中景特写,轻微慢速变焦,肩高透视" 音频:"充满热情的自信清晰的女性声音:[您的对话在这里],专业的房间声学,背景中微妙的键盘打字"

这种结构化方法为OVI的每个生成方面提供了更清晰的目标。

质量控制工作流程

三阶段质量流程:

阶段1 - 概念验证(5分钟):

  • 低分辨率(512p)
  • 30步
  • 验证提示解释和基本同步
  • 快速迭代提示

阶段2 - 质量审查(12分钟):

  • 中等分辨率(720p)
  • 50步
  • 检查语音质量、口型同步精度、运动一致性
  • 批准最终生成

阶段3 - 最终渲染(20-30分钟):

  • 全分辨率(1080p)
  • 70-80步
  • 高音频采样率(48kHz)
  • 仅用于批准的概念

这种分阶段方法可以防止在有缺陷的概念的高质量渲染上浪费时间。

语音配置文件库管理

构建可重用的角色语音库以实现跨项目的一致性。

组织系统:

  • /voice_profiles/characters/ - 虚构角色语音
  • /voice_profiles/narrators/ - 纪录片/解说员语音
  • /voice_profiles/clients/ - 客户特定品牌语音
  • /voice_profiles/languages/ - 语言特定语音集

记录每个配置文件:

  • 原始生成提示
  • 样本音频文件
  • 用例说明
  • 使用的生成参数

掌握OVI后的下一步

您现在拥有关于OVI安装、工作流程、优化和生产技术的全面知识。您了解如何生成使用传统方法需要数小时或数天的同步视频-音频内容。

建议的下一步:

  1. 生成15-20个探索不同语音风格和情感的测试剪辑
  2. 为可重用资产构建您的角色语音配置文件库
  3. 尝试多说话者对话场景
  4. 为更长内容设置基于块的工作流程
  5. 加入OVI社区论坛分享结果和技术

额外学习资源:

选择正确的方法
  • 选择本地OVI如果: 您定期制作对话密集的内容,需要完全的创意控制,拥有合适的硬件(12GB+ VRAM),并希望初始投资后零经常性成本
  • 选择Apatero.com如果: 您需要无需技术设置的即时结果,想要有保证的基础设施性能,更喜欢无硬件投资的按使用付费定价,或需要客户工作的可靠正常运行时间

OVI代表AI视频创作的范式转变。统一的视频-音频生成方法消除了困扰传统工作流程的同步头痛。无论您是制作教育内容、开发游戏资产、创建营销材料还是构建娱乐媒体,OVI都将专业的同步视频-音频生成直接交到您手中。

内容创作的未来不是在视频或音频工具之间选择。它是关于将视听内容视为应有的集成体验的统一生成。OVI使这个未来在ComfyUI中立即可用,准备供您探索和掌握。

精通ComfyUI - 从基础到高级

加入我们完整的ComfyUI基础课程,学习从基础到高级技术的所有内容。一次性付款,终身访问,并获得每个新模型和功能的更新。

完整课程
一次性付款
终身更新
报名课程
一次性付款 • 终身访问
适合初学者
可用于生产
始终更新