添加图片注释,不超过 140 字(可选)

更多AI前沿科技资讯,请关注我们:

http://aigc.douyoubuy.cn/

超强!超高效!flux kontext dev最强组合完美工作流,nunchaku+自动循环+标注助手+提示词生成器+修复放大!

添加图片注释,不超过 140 字(可选)

大家好,我是Jimmy。截至目前,kontext dev已出一周多时间,我们也深度围绕这个模型分享了很多实用技巧:能力释放!超准超快超高效,flux kontext最强组合:flux kontext+提示词助手+标注+nunchakku,完美

flux kontext dev 实现ID一致性的人物多姿势编辑,搭配循环助手解锁摄影写真、故事场景、短剧分镜等场景下的人物塑造

目前我们工作流不断迭代,已经实现了:

1、自动循环加载图像,多轮图像编辑;(循环节点助力的结果)

2、配合标注助手释放kontext视觉提示能力;(标注助手节点助力的结果)

3、配合提示词生成器,减少输入且形成kontext规则提示词;(kontext提示词生成器节点助力的结果)

4、高效的高清修复方案;(nunchaku版本放大模型的助力的结果)

有小伙伴提出修复方案能否再增加TTP,是的,的确TTP是目前最优的修复放大方案。所以这期,我们讲讲两种经典的放大修复方案。对比下,大家就能根据自己情况去选择。

我也将两种方案的接入我们目前kontext最强组合工作流中。这样,在修复放大方面,就有了两种选择。

closerAI kontext 单图编辑工作流(nunchaku两种放大修复)如下:

添加图片注释,不超过 140 字(可选)

其实工作流不复杂。只是看上去多内容而已。我标注好每个模块的工作内容了。其实大家使用时,只需要选择修复方式,其它无脑执行。若需要使用视觉提示功能,打开标注助手进行标注即可。

这里,重点讲修复放大,因为我们大多数人的本地设备不好,8G、16G其中16G占大多数了,一些优秀的修复项目如ComfyUI-SUPIR 24G才能玩。所以像这类的我们基本不考虑了。我要从效率和效果质量这两个维度出发,结合nunchaku对flux模型以及社区一些变体的放大模型来考虑我们的修复放大方案,以及一些轻量级专用修复模型Real-ESRGAN(放大去噪)来实现。

以下内容很干很实用,如果觉得不错,记得给我一键三连支持下啊,谢谢额!

我整理出了两种方法:

第一种是nunchaku放大模型+Real-ESRGAN模型的方法。

第二种是nunchaku放大模型+TTP分块放大的方法。

一、nunchaku放大模型+Real-ESRGAN模型修复放大法

添加图片注释,不超过 140 字(可选)

可使用nunchaku两个模型,一个是svdq-int4-flux.1-dev,一个是前天教程讲到的nunchaku变体版放大模型:

超赞超吊超无敌!flux nunchaku kontext高效修复放大方案,减少损失,配合循环助手,实现低损失对话式图像编辑!冲

国外一个大佬支持的nunchaku放大模型,这个模型是支持nunchaku0.3的,下载后放models/unet下:

模型:https://civitai.com/models/1545303?modelVersionId=1861654

放大模型:https://huggingface.co/uwg/upscaler/blob/main/ESRGAN/4x_NMKD-Siax_200k.pth

下载后放置models/upscale_models下

添加图片注释,不超过 140 字(可选)
添加图片注释,不超过 140 字(可选)

这里的cache_threshold值设置成0.12,我们做下加速,设置成0也没问题的。

放大模型:我们选择realESRGAN_X4plus.pth 放大4倍哦!

添加图片注释,不超过 140 字(可选)

然后K采样器的降噪值:设置成0.25。0.2~0.4也没问题,主要是控制重绘幅度,太大会改变原图。

添加图片注释,不超过 140 字(可选)

我们加载一张图看看效果:以下是上次演示标注助手节点生成的图。

【closerAI ComfyUI】厉害!再次解锁:flux kontext的区域标注和涂鸦编辑功能!让脑洞更大!释放更多玩法!

添加图片注释,不超过 140 字(可选)
添加图片注释,不超过 140 字(可选)

我们无从浏览大放大来看看它未修复放大前的样子:

添加图片注释,不超过 140 字(可选)
添加图片注释,不超过 140 字(可选)

经过工作流的修复放大后:

添加图片注释,不超过 140 字(可选)
添加图片注释,不超过 140 字(可选)

这次我还是搞个视频大家看清楚点:

我们能清楚看到,去噪且放大,直接去到2K多。

添加图片注释,不超过 140 字(可选)

这个方法,就是快,效率快,质量好。

所以这是我之前工作流推荐大家使用的方法。

但是呢,这也不是质量最好的,因为我们可以见它放大到最大时,没有细节。

那这个时候,TTP分块放大就是很好的方法了,分块若干块,每一块进行重绘。保证细节。如果你使用flux版的TTP放大,24G显存没个30~40分钟,你跑不出一张图。但是,nunchaku FLUX 版就很好地在效率上为我们解决了这个事nunchaku+TTP修复放大。

二、nunchaku放大模型+TTP分块放大法

添加图片注释,不超过 140 字(可选)

同样在nunchaku模型选择,上面两个依旧二选一即可。

放大模型同样是realESRGAN 4倍:

添加图片注释,不超过 140 字(可选)

K采样器设置如下图示:

添加图片注释,不超过 140 字(可选)

我们同样上面的图,运行下:

添加图片注释,不超过 140 字(可选)

我再录个视频:

可见,它不会像上面那种方法,它会有细节,更真实。

但效率上比第一种方法慢点,但效果我个人觉得是好一点的。

三、两种方法结果对比

最后我将两种方法的结果,录个视频,这样更直观:

这样更直观,大家看看效果,根据自己本地设备配置选择对应方法。

我8G只能追求第一种结果了。哈哈。时间上呢,我两个工作流一起跑,一共才4分多钟。

添加图片注释,不超过 140 字(可选)

以上就是关于修复方案的两种方法的详细介绍。

本地算力不够怎么办?

如果本地设备算力不好的小伙伴,推荐使用线上comfyUI来运行体验:runninghub.cn

添加图片注释,不超过 140 字(可选)

Flux Kontext Dev动嘴P图流体验地址:

https://www.runninghub.cn/ai-detail/1938445554957639681

注册地址:https://www.runninghub.cn/?utm_source=kol01-RH151

通过这个链接第一次注册送1000点,每日登录送100点


最后几句:

超强!超高效!flux kontext dev最强组合完美工作流,nunchaku+自动循环+标注助手+提示词生成器+修复放大!真正无损的多轮图像编辑工作流,无限循环动嘴P图开启高效AIGC制作。让你高效出片!

以下是我开发的节点,配合kontext能高效出片:

1、comfyUI kontext 标注助手节点:

http://closerai.douyoubuy.cn/2025/07/01/2089/

2、comfyUI kontext提示词生成器节点:

http://aigc.douyoubuy.cn/2025/06/30/2062/

3、closerAI 图像循环助手节点:

http://aigc.douyoubuy.cn/2025/07/05/2137/

comfyUI kontext提示词生成器网页应用:

http://aigc.douyoubuy.cn/closerai-flux-kontext/

以上是closerAI团队制作的stable diffusion comfyUI closerAI开发的节点以及

closerAI kontext 对话式多轮单图编辑修复放大工作流介绍,大家可以根据工作流思路进行尝试搭建。

当然,也可以在我们closerAI会员站上获取对应的工作流(查看原文)

以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~谢谢你看我的文章,我们,下次再见。

>/ 作者:JimmyMo

更多AI前沿科技资讯,请关注我们:

http://aigc.douyoubuy.cn/

添加图片注释,不超过 140 字(可选)
隐藏内容
本内容需权限查看
  • 普通用户: 99.9金币
  • VIP会员: 免费
  • 永久会员: 免费

主题授权提示:请在后台主题设置-主题授权-激活主题的正版授权,授权购买:RiTheme官网

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。