[系列教程](/zh/tutorial "系列教程")[ComfyUI 进阶教程](/zh/tutorial/advanced "ComfyUI 进阶教程")5.1. 腾讯混元 文生视频

### [Qwen-Image-Layered 发布 - 支持图像分层编辑的生成模型](/zh/news/2025-12-19-qwen-image-layered-release)

2025/12/19

## title: HunyuanVideo 文生视频工作流指南及示例 description: 详细介绍如何在 ComfyUI 中使用腾讯混元 HunyuanVideo 模型进行文生视频生成的完整教程,包括环境配置、模型安装和工作流使用说明 tag: video,t2v

# HunyuanVideo 文生视频工作流指南及示例

本教程将详细介绍如何在 ComfyUI 中使用腾讯混元 HunyuanVideo 模型进行文生视频生成。我们会一步步指导你完成整个过程。

## 1. 安装并更新 ComfyUI 到最新版本

如果你还没有安装 ComfyUI,请参考对应板块内容完成安装:

[ComfyUI 安装教程](/zh/install) [ComfyUI 更新教程](/zh/tutorial/basic/how-to-update-comfyui)

因为需要使用到 ‘EmptyHunyuanLatentVideo’ 节点,所以需要先安装并更新 ComfyUI 到最新版本才有对应的节点

## 2. 模型下载和安装

HunyuanVideo 需要下载以下模型文件:

### 2.1 主模型文件

从 [HunyuanVideo 主模型下载页面](https://huggingface.co/Comfy-Org/HunyuanVideo_repackaged/tree/main/split_files/diffusion_models) 下载以下文件:

文件名| 大小| 放置目录
---|---|---
hunyuan_video_t2v_720p_bf16.safetensors| 约 25.6GB| ComfyUI/models/diffusion_models

### 2.2 文本编码器文件

从 [HunyuanVideo 文本编码器下载页面](https://huggingface.co/Comfy-Org/HunyuanVideo_repackaged/tree/main/split_files/text_encoders) 下载以下文件:

文件名| 大小| 放置目录
---|---|---
clip_l.safetensors| 约 246MB| ComfyUI/models/text_encoders
llava_llama3_fp8_scaled.safetensors| 约 9.09GB| ComfyUI/models/text_encoders

### 2.3 VAE 模型文件

从 [HunyuanVideo VAE 下载页面](https://huggingface.co/Comfy-Org/HunyuanVideo_repackaged/tree/main/split_files/vae) 下载以下文件:

文件名| 大小| 放置目录
---|---|---
hunyuan_video_vae_bf16.safetensors| 约 493MB| ComfyUI/models/vae

### 模型目录结构参考

ComfyUI/
├── models/
│ ├── diffusion_models/
│ │ └── hunyuan_video_t2v_720p_bf16.safetensors # 主模型文件
│ ├── text_encoders/
│ │ ├── clip_l.safetensors # CLIP 文本编码器
│ │ └── llava_llama3_fp8_scaled.safetensors # LLaVA 文本编码器
│ └── vae/
│ └── hunyuan_video_vae_bf16.safetensors # VAE 模型文件

## 3.工作流文件下载

下载 HunyuanVideo 文本到视频工作流

[Raw Json Format](https://comfyanonymous.github.io/ComfyUI_examples/hunyuan_video/hunyuan_video_text_to_video.json)

> 工作流文件来源地址: [HunyuanVideo 工作流文件下载](https://comfyanonymous.github.io/ComfyUI_examples/hunyuan_video/)

### 基础视频生成工作流

HunyuanVideo 支持以下分辨率设置:

分辨率| 9:16 比例| 16:9 比例| 4:3 比例| 3:4 比例| 1:1 比例
---|---|---|---|---|---
540p| 544×960×129帧| 960×544×129帧| 624×832×129帧| 832×624×129帧| 720×720×129帧
720p (推荐)| 720×1280×129帧| 1280×720×129帧| 1104×832×129帧| 832×1104×129帧| 960×960×129帧

## 4. 工作流节点说明

### 4.1 模型加载节点

1. **UNETLoader**

* 用途:加载主模型文件
* 参数:
* Model: `hunyuan_video_t2v_720p_bf16.safetensors`
* Weight Type: `default` (如果显存不足可以选择 fp8 类型)
2. **DualCLIPLoader**

* 用途:加载文本编码器模型
* 参数:
* CLIP 1: `clip_l.safetensors`
* CLIP 2: `llava_llama3_fp8_scaled.safetensors`
* Text Encoder: `hunyuan_video`
3. **VAELoader**

* 用途:加载 VAE 模型
* 参数:
* VAE Model: `hunyuan_video_vae_bf16.safetensors`

### 4.2 视频生成关键节点

1. **EmptyHunyuanLatentVideo**

* 用途:创建视频潜空间
* 参数:
* Width: 视频宽度(如 848)
* Height: 视频高度(如 480)
* Frame Count: 帧数(如 73)
* Batch Size: 批次大小(默认 1)
2. **CLIPTextEncode**

* 用途:文本提示词编码
* 参数:
* Text: 正向提示词(描述你想要生成的内容)
* 建议使用详细的英文描述
3. **FluxGuidance**

* 用途:控制生成引导强度
* 参数:
* Guidance Scale: 引导强度(默认 6.0)
* 数值越大,生成结果越接近提示词,但可能影响视频质量
4. **KSamplerSelect**

* 用途:选择采样器
* 参数:
* Sampler: 采样方法(默认 `euler`)
* 其他可选:`euler_ancestral`, `dpm++_2m` 等
5. **BasicScheduler**

* 用途:设置采样调度器
* 参数:
* Scheduler: 调度方式(默认 `simple`)
* Steps: 采样步数(建议 20-30)
* Denoise: 去噪强度(默认 1.0)

### 4.3 视频解码和保存节点

1. **VAEDecodeTiled**

* 用途:将潜空间视频解码为实际视频
* 参数:
* Tile Size: 256(如果显存不足可以调小)
* Overlap: 64(如果显存不足可以调小)

> 注意:优先使用 VAEDecodeTiled 而不是 VAEDecode,因为它更节省显存

2. **SaveAnimatedWEBP**

* 用途:保存生成的视频
* 参数:
* Filename Prefix: 文件名前缀
* FPS: 帧率(默认 24)
* Lossless: 是否无损(默认 false)
* Quality: 质量(0-100,默认 80)
* Filter Type: 过滤类型(默认 `default`)

## 5. 参数优化建议

### 5.1 显存优化

如果遇到显存不足问题:

1. 在 UNETLoader 中选择 fp8 权重类型
2. 减小 VAEDecodeTiled 的 tile_size 和 overlap 参数
3. 使用较低的视频分辨率和帧数

### 5.2 生成质量优化

1. **提示词优化**

[主体描述], [动作描述], [场景描述], [风格描述], [质量要求]

示例:

anime style anime girl with massive fennec ears and one big fluffy tail, she has blonde hair long hair blue eyes wearing a pink sweater and a long blue skirt walking in a beautiful outdoor scenery with snow mountains in the background

2. **参数调整**

* 增加采样步数(Steps)可提高质量
* 适当提高 Guidance Scale 可增强文本相关性
* 根据需要调整 FPS 和视频质量参数

## 6. 常见问题

1. **显存不足**

* 参考显存优化部分的建议
* 关闭其他占用显存的程序
* 使用较低的视频分辨率设置
2. **生成速度慢**

* 这是正常现象,视频生成需要较长时间
* 可以适当减少采样步数和帧数
* 使用较低分辨率可以加快速度
3. **生成质量问题**

* 优化提示词描述
* 增加采样步数
* 调整 Guidance Scale
* 尝试不同的采样器

## 参考内容链接

* [ComfyUI HunyuanVideo 示例](https://comfyanonymous.github.io/ComfyUI_examples/hunyuan_video/)
* [HunyuanVideo 模型下载](https://huggingface.co/tencent/HunyuanVideo)
* [ComfyUI 官方文档](https://comfyanonymous.github.io/)

主题授权提示:请在后台主题设置-主题授权-激活主题的正版授权,授权购买:RiTheme官网

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。