Stable Diffusion大家都知道,但是想玩好SD,并且玩出花样,那Comfyui肯定得会用。
Comfyui相对于去年已经越来越成熟,五花八门的工作流有着五花八门的功能。
越来越成熟的背后,却是越来越多的节点,乱糟糟的看着就头疼。
要不说英伟达服务好呢,生产芯片也不忘了给用芯片的人提供一些有趣又有用的东西。
Comfyui + LLM =???
肯定懂是什么意思吧。
这就是下面要讲的这个新奇的理念,通过简单的描述,自动选择合适的工作流节点,拼接成对应的工作流。
之前只想过却没见过的,应该怎么称呼,“大工作流模型”?
扫码加入AI交流群
获得更多技术支持和交流
(请注明自己的职业)
项目简介
ComfyGen 是一种基于大型语言模型(LLM)的新型文本到图像生成工具,为用户输入的特定提示自动定制和优化生成Comfyui工作流。它通过组合多个专门的组件,如改进的输入处理、精细的解码器和超分辨率模块,显著提高生成图像的质量和细节。ComfyGen 的核心在于其能够根据用户的具体需求,选择最适合的工作流组件,从而实现更高质量和更精确对齐的图像输出。这一技术不仅提高了图像生成的质量,而且通过利用LLM的强大功能,改善了生成过程的自适应性和灵活性。
对比
与C站用户创建的进行比较
技术特点
提示适应性生成:ComfyGen能够根据用户提供的具体提示,自动定制和选择最合适的生成流程。这种方法使得生成的图像更贴合用户的具体需求,提高了图像的相关性和质量。
组件化工作流:通过结合多个专门化的组件,如特定风格的微调模型、语言模型优化的输入提示、高级解码器技术以及超分辨率处理,ComfyGen可以在生成过程中加入更多细节,提升图像的视觉效果。
基于LLM的决策支持:ComfyGen利用大型语言模型(LLM)来分析提示并选择最适合的工作流组件,这使得工作流的配置更加智能化,能够适应各种复杂的生成需求。
质量驱动的输出:通过对比不同工作流生成的图像,ComfyGen能够根据预定的质量标准和用户偏好选择最优的生成路径,确保输出图像的最高质量。
训练与无训练方法并行:ComfyGen提供了两种方法:一种是通过用户反馈数据进行训练的调优方法,另一种是无需额外训练即可直接应用的流程选择方法,这提供了灵活的使用选择,满足不同用户的技术背景和应用需求。
项目链接
https://www.dongaigc.com/p/github/ComfyGen?a=comfygen
关注「开源AI项目落地」公众号
与AI时代更靠近一点
关注「向量光年」公众号
加速全行业向AI转变
关注「AGI光年」公众号
获取每日最新资讯