closerAI-gemma4 PromptDesign

基于 OpenAI 兼容 API 的多模型提示词优化 ComfyUI 节点

功能简介

closerAI-gemma4 PromptDesign 是一个强大的 ComfyUI 节点,可以调用本地或云端的 LLM API 生成专业级的提示词,支持多种图像和视频模型,如FLUX、LTX2.3、wan2.2

支持的模型

类型模型说明
视频🎬 LTX 2.3电影弧+音频
视频🎬 Wan 2.2运动优先电影感
图像🖼 Flux.1自然语言风格
图像🖼 SDXL 1.0Booru标签风格
图像🖼 Pony XLBooru+评分标签
图像🖼 SD 1.5加权经典风格

安装方法

  1. 进入 ComfyUI 的 custom_nodes 目录:
   ComfyUI/custom_nodes/
  1. 克隆或复制本项目:
直接复制 gemma4_prompt_gen.py__init__.pycustom_nodes/closerAI-gemma4-PromptDesign/ 目录
  1. 重启 ComfyUI

使用说明

基本使用

  1. 在 ComfyUI 节点列表中找到 closerAI/PromptDesign 类别
  2. 添加 closerAI-gemma4 PromptDesign 节点
  3. 填写必要的参数
  4. 运行工作流

参数说明

参数类型必填说明
目标模型下拉选择要生成提示词的模型类型
语言下拉输出语言:中文English
API地址字符串OpenAI 兼容 API 地址
API密钥字符串API 密钥,本地 LLM 可留空
模型名称字符串模型名称(如 gpt-4o、gemma4 等)
场景描述字符串描述你想要的场景内容
对白开关启用后强制生成对话内容
剧本模式开关仅 LTX 2.3,生成结构化剧本风格
图像图像参考图像(连接则自动启用)
角色字符串角色描述或 LoRA 触发词
帧数整数视频帧数(LTX/Wan 使用)
视角模式下拉第一人称视角
种子整数随机种子

API 配置示例

本地 LLM(推荐)

使用 llama.cpp 搭建的本地 API 服务:

API地址: http://127.0.0.1:8080/v1
API密钥: (留空)
模型名称: gemma4 (或你的模型名称)

启动本地 API server

云端 API

API地址: https://api.openai.com/v1
API密钥: sk-xxxxxxxxxxxxxxxx
模型名称: gpt-4o

或使用其他兼容 API(如硅基流动、OneAPI 等):

API地址: https://api.siliconflow.cn/v1
API密钥: 你的API密钥
模型名称: QVQ-72B

输出说明

节点输出一个字符串类型的 prompt,可以直接连接到:

  • KSampler 的正向提示词输入
  • Checkpoint Loader 之后的任何提示词处理节点
  • Any Type 类型的通用输入

注意事项

  1. 图像支持:只有支持视觉的模型才能使用图像参考功能,如 GPT-4V、Claude-3-Vision 等。本地模型如不支持视觉会返回错误提示。
  2. 对白功能:启用对白选项后,LLM 会强制生成对话内容,无论场景描述中是否包含对话。
  3. 语言设置:选择 中文 时生成的提示词为中文,选择 English 时为英文。
  4. 本地模型:确保本地 llama-server 已启动并监听在配置的端口。

常见问题

Q: 节点显示 "无法连接到API服务器"

A: 检查 API 地址是否正确,本地服务是否已启动,端口是否匹配。

Q: 图像输入报错 "此模型不支持图像输入"

A: 关闭图像输入选项,或更换支持视觉的模型(如 GPT-4V)。

Q: 提示词生成失败

A: 检查模型名称是否正确,API 密钥是否有效(如果有的话)。

更新日志

v1.0

  • 初始版本
  • 支持多种图像/视频模型
  • 支持中英文输出
  • 支持本地和云端 API
  • 自动检测图像输入

主题授权提示:请在后台主题设置-主题授权-激活主题的正版授权,授权购买:RiTheme官网

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。