
更多AI前沿科技资讯,请关注我们:
【closerAI ComfyUI】最小22Mb,快10倍+! VAE 性能革命!lightx2v团队新项目:AI 视频生成领域的“性能优化解决方案”!提速提速!

大家好,我是Jimmy。
lightx2v团队我们应该很熟悉,wan2.2的4步、8步加速LORA的开发者。今天介绍它们带来的 VAE 的 “效率天花板”项目:lightx2v/Autoencoders。也就是优化后的VAE模型集合。它提供了两大系列VAE模型:lightTAE系列、lightVAE系列
一、Autoencoders
在 AI 视频生成领域,自动编码器(VAE)是连接 “抽象潜在空间” 与 “可视化视频内容” 的核心桥梁。然而,传统 VAE 模型长期面临 “高质量与高资源消耗不可兼得” 的痛点 —— 要么显存占用高达 10GB 以上,要么细节丢失严重。lightx2v/Autoencoders 项目的出现,为这一困境提供了突破性的解决方案。
在 AI 视频生成流程中,VAE 承担着 “编码(将原始视频压缩为低维潜在变量)” 与 “解码(将生成的潜在变量还原为可视化视频)” 的关键作用。lightx2v/Autoencoders 的出现,直接解决了传统方案的三大核心痛点:
- 资源消耗过高:官方 VAE 需 8-12GB 显存,普通设备难以运行;
- 推理速度缓慢:传统 VAE 解码 5 秒视频需 5 秒以上,无法满足实时创作需求;
- 质量与效率失衡:开源轻量 VAE 虽快,但细节丢失严重,无法用于生产级场景。
项目地址:https://huggingface.co/lightx2v/Autoencoders
comfyui项目仓库:https://github.com/ModelTC/ComfyUI-LightVAE

提供了核心模型:4 类 VAE 覆盖全场景需求
项目围绕 Wan2.1 和 Wan2.2 两大视频模型系列,构建了 4 类功能差异化的 VAE 模型,每类模型都对应明确的使用场景。

以下是详细的模型对比与技术解析:
| 模型类别 | 代表模型 | 显存占用 | 推理速度 | 生成质量 | 核心适用场景 |
|---|---|---|---|---|---|
| 官方 VAE | Wan2.1_VAE、Wan2.2_VAE | 8-12 GB | 慢(5-6 秒 / 5s 视频) | ⭐⭐⭐⭐⭐(最高) | 最终产品输出(如影视级视频) |
| 开源 TAE | taew2_1、taew2_2 | ~0.4 GB | 极快(0.2-0.4 秒 / 5s 视频) | ⭐⭐⭐(一般) | 开发测试、快速迭代 |
| LightTAE(优化) | lighttaew2_1、lighttaew2_2 | ~0.4 GB | 极快(同开源 TAE) | ⭐⭐⭐⭐(接近官方) | 低显存设备创作、实时预览 |
| LightVAE(优化) | lightvaew2_1 | 4-5 GB | 快(2-3 秒 / 5s 视频) | ⭐⭐⭐⭐(接近官方) | 日常生产(平衡质量与效率) |
速度对比(单位:秒,越快越好)
| 模型 | 编码时间 | 解码时间 | 总耗时 |
|---|---|---|---|
| Wan2.1_VAE(官方) | 4.1721 | 5.4649 | 9.637 |
| taew2_1(开源 TAE) | 0.3956 | 0.2463 | 0.6419 |
| lighttaew2_1(优化) | 0.3956 | 0.2463 | 0.6419 |
| lightvaew2_1(优化) | 1.5014 | 2.0697 | 3.5711 |
显存对比(单位:GB,越低越好)
| 模型 | 编码显存 | 解码显存 | 最大显存占用 |
|---|---|---|---|
| Wan2.1_VAE(官方) | 8.4954 | 10.1287 | 10.1287 |
| taew2_1(开源 TAE) | 0.00858 | 0.41199 | 0.41199 |
| lighttaew2_1(优化) | 0.00858 | 0.41199 | 0.41199 |
| lightvaew2_1(优化) | 4.7631 | 5.5673 | 5.5673 |
结论:LightTAE 系列在速度和显存上优势最明显,LightVAE 系列虽比 TAE 慢,但质量更接近官方;官方 VAE 质量最高,但资源消耗是 LightVAE 的 2 倍、LightTAE 的 25 倍。
comfyUI中的使用与体验
我觉得不用什么测试了,lightx2v团队已经提供了更详尽地测试,换来用就完了。正如加速LORA一样。用就完了。我主要想介绍下安装方法,在安装过程有点小波折。我分享下我的秋叶包下的安装过程。
1、打开https://github.com/ModelTC/ComfyUI-LightVAE
下载节点。解压放置custom_nodes下。
2、根据指引操作:第二步的KJ的wanvideoWrapper相信大家都有安装过,这里不讲了。

安装LightX2V插件:
打开这个地址https://github.com/ModelTC/LightX2V。直接下载:

解压放到秋叶包根目录下

然后:

再执行这些命令:
cd LightX2V 回车
python setup_vae.py install 回车
重启comfyUI
如果还是失败,请继续以下操作:
复制核心包
- 复制
LightX2V文件夹,路径参考:E:\comfyUI\LightX2V\ - 在这个文件夹里,您会看到一个名为
lightx2v的文件夹 - 复制这个
lightx2v文件夹。粘贴到 Python 库中 打开comfyUI\python\lib\site-packages\文件夹。- 粘贴刚刚复制的
lightx2v文件夹。 - 完成后,您应该能在
site-packages文件夹内看到lightx2v这个新文件夹。 - 重启
模型的话在这里下载:https://huggingface.co/lightx2v/Autoencoders
放置models/VAE中。
打开工作流:随便一个wan2.1的工作流。这里我使用ALL IN ONE的工作流。简单。
将加载VAE节点改为:

工作流如下:

执行结果分别如下:

正如官方测评的,lightVAE兼顾速度与质量,我建议用这个就行了。如果有的小伙伴是6G以下显存的,直接用TAE模型。
本地算力不够怎么办?
如果本地设备算力不好的小伙伴,推荐使用线上comfyUI来运行体验:runninghub.cn

S2图生视频 体验地址:https://www.runninghub.cn/ai-detail/1973586523100680194

s2 文生视频 体验地址:https://www.runninghub.cn/ai-detail/1973585400205807617
注册地址:https://www.runninghub.cn/?utm_source=kol01-RH151
通过这个链接第一次注册送1000点,每日登录送100点
最后几句:
如果对你有帮助,请一键三连支持下我,感谢
以下是closerAIwater节点:
http://aigc.douyoubuy.cn/2025/10/22/3121/
分镜分词器节点:
http://aigc.douyoubuy.cn/2025/10/11/3080/
以下是我开发的节点,配合kontext能高效出片:
1、comfyUI kontext 标注助手节点:
http://closerai.douyoubuy.cn/2025/07/01/2089/
2、comfyUI kontext提示词生成器节点:
http://aigc.douyoubuy.cn/2025/06/30/2062/
3、closerAI 图像循环助手节点:
http://aigc.douyoubuy.cn/2025/07/05/2137/
4、closerAI 自由组合节点:
http://aigc.douyoubuy.cn/2025/07/24/2305/
5、closerAI 自动白边处理节点:
http://aigc.douyoubuy.cn/2025/07/28/2357/
6、closerAI NAG_Sampler节点:
http://aigc.douyoubuy.cn/2025/07/28/2354/
7、comfyUI kontext提示词生成器网页应用:
http://aigc.douyoubuy.cn/closerai-flux-kontext/
8、closerAI 图像自由组合在线版
http://aigc.douyoubuy.cn/closerai-imagefree/
以下是qwen-image相关节点:
以下是我开发的节点,配合qwen-image能高效出片:
1、comfyUI qwen-image-edit提示词生成器节点:
http://aigc.douyoubuy.cn/2025/08/20/2615/
2、closerAI可视化中文编辑节点:
http://aigc.douyoubuy.cn/2025/08/11/2545/
以上是closerAI团队制作的stable diffusion comfyUI lightx2v VAE模型项目的介绍与安装方法说明以及
closerAI wan+lightVAE视频生成工作流介绍,大家可以根据工作流思路进行尝试搭建。
当然,也可以在我们closerAI会员站上获取对应的工作流(查看原文)。
以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~谢谢你看我的文章,我们,下次再见。
>/ 作者:JimmyMo
更多AI前沿科技资讯,请关注我们:

主题授权提示:请在后台主题设置-主题授权-激活主题的正版授权,授权购买:RiTheme官网

评论(0)