二次元fluxlora模型分享-建议搭配union-controlnet-v2使用最佳

这个模型基于flux-dev版模型训练的lora,具备很好的泛化能力。二次元风格,这个模型可以结合线稿、参考姿势结合union-controlnet-v2模型一起使用,能够很好的控制造型姿势。

controlnet-v2工作流

图1是参考图,图3是结合姿势生成的效果。

下面两张图是完全通过参考姿势,完全由模型生成的效果,最终在ps中进行合成构图。

训练参数

最大训练24轮,打标采用触发词和tag组合,素材分为场景图和单人角色效果,拆分训练

下图为文生图效果:

以下是lora通过controlnet-v2 一起使用的流程效果,包括最终修复的效果。

通过网盘分享的文件:

模型触发词:yifanjie_girl,后续接自然文本描述 lora模型权重建议在0.7-0.9之间

链接: https://pan.baidu.com/s/1PQi21XKcrFCvjroZoJXSTQ?pwd=3f54 提取码: 3f54

配套的union-controlnet-v2工作流:https://huggingface.co/Shakker-Labs/FLUX.1-dev-ControlNet-Union-Pro-2.0

当把XL训练的repeat提高到100以上

上一期文章分享了扁平插画女孩的LoRa-XL模型,训练的repeat扫描次数在10-20之间,这次我将他们的repeat提高到100-150,在同样的提示词下生成的效果如图:

masterpiece:(1.2),chahua_nvhai,,British girl,Exquisite facial details,long hair,1girl,illustration style,brown hair,wear blue dress,illustration, 5 fingers,8K,hud,Grand Budapest Hotel background,happy

头发的细节,脸部细节泛化能力都提升不少。如果你在模型训练的时候如果感觉效果没有提升,特别是XL模型训练,试试看将repeat扫描次数提高到100以上。

分享扁平插画女孩风格LoRa模型

该模型基于XL base 1.0底模微调的LoRa模型,画风特点是扁平简笔插画风格,训练素材104张。

30张写实正则化训练素材,74张简笔插画风格素材。目的是解决造型太单一,使其符合真实人的站姿,但个人认为效果并不是很明显。

这模型我主要想用来接入krita使用,所以对文生图的细节、色彩、构图、手指问题不做追求。需要的去libulibu自取:https://www.liblib.art/userpage/5bc8f4248c1b4ce1a45bd206f806803a/publish

触发词:chahua_nvhai

提示词样例:

masterpiece:(1.2),chahua_nvhai,fullbody,British girl,Exquisite facial details,long hair,1girl,illustration style,brown hair,wear blue dress,illustration, 5 fingers,8K,hud,Grand Budapest Hotel background,happy

效果如下:

扒取-“超自然AI换脸教程”-来自哔哩哔哩

看了这个作者的演示,效果确实不错,但是我细查了下发现是培训机构的。所以想要获取他的流程必须要三连加微信才能获取到,而且一时半会还没发给我。本着提升自己对comfyui的熟悉度,我照猫画虎的1:1给还原了过来。

原视频地址:https://www.bilibili.com/video/BV1eXsheNEon?p=2&vd_source=b6c524e3d38fe874f7e2148d9ca2d1bc

为什么叫扒取又打引号呢?根据视频截图保存本地推演出来的,但实际效果是否那么好呢?有待验证。

下面分享下我在配置这个工作流遇到的问题:

按作者要求安装一下插件节点(我列的不全,这个视频作者提到的插件都要安装昂):

1.mixlab(我在这报错多)

2.ipadapter(这个已安装的略过)

3.comfyroll(原图放大节点,改善加载图像不够高清的问题也可以理解为高清修复)

4.instantID(这个已安装的略过,记得需要下载ipadapter.bin模型)

总体流程搭建简单,主要分为三部分,首先通过输入图像(不清晰的直接comfyroll放大节点)来到ReActor换脸,这时候效果可能不佳,接着引入instantID节点,之后再通过ipadapter进行迁移风格,得到最终效果。(使用基础模型为XL)

整体工作流如上

说下mixlab报错,这个插件需要将版本切换到4月月份的版本,同时instantID也要切换到4月27的版本,否则两者会出现兼容性问题。尤其是mixlab最新版本会导入错误。切换版本解决。

工作流分享:https://trilightlab.com/wp-content/uploads/2024/09/segment-ipadapter-anything换脸.zip

演示环节:

我要将刘亦菲的脸型嫁接到中间这个美女脸上,得到图3刘亦菲换脸的最终效果

原图
将要替换的脸型
最终换脸效果

这里又2点要注意:

controlnet加载器的模型选择instantid/diffusion_pytorch_model.sfetensors模型 不然效果很差

K采样器的参数:

继续演示:

将图1的女孩脸型替换到图2上,得到图3的效果。

结论:总体来说符合我的预期,品质也很高,并且相比flxu上期分享的流程速度快精准度稳定性一些。

Flxu换脸工作流的使用体验

这个换脸流程逻辑简单说一下,使用的是Flux-GGUF的基础模型,依靠提示词生成一个人体姿势,然后再上传一张将要替换的脸部人像,通过face swapfacedetailer两个插件进行交替叠加效果,从而获得真实的换脸操作。有个缺点,目前还没法找到头部以下解决清晰度又能够做到保真的效果。

下面是案例:

韦德换脸

上传图
face swap only 生成
face swap和facedetailer相互叠加

放个大点的工作流可以看到,左下角是上传要换脸的图,左边第1张是文生图。他们相互融合通过插件生成第二张和第三张效果。那这两张有什么差别? 我实际对比发现第三张能够加强脸部的光线处理,立体感更强,脸上的细节会更多。

科比换脸

输入图像
face swap only 生成
face swap和facedetailer相互叠加

这里我适当的将提示词加入了科比的名字,正好因为之前模型有这部分的人像训练,所以才会换脸的精确度更高。你可以发现左边第一张的文生图效果就已经很好了。

贝克汉姆换脸


输入图像
face swap only 生成
face swap和facedetailer相互叠加

发现,它目前替换的还仅仅是脸部这块,头发没有做替换。得要研究下如何将整个脑袋进行替换融合这才是真正换脸,从而达到逼真的问题。

结论:

从换脸的流程来看,faceswap的换脸操作能够稳定替换,但是不够逼真,需要研究遮罩能够覆盖更大的替换范围。

没有一招鲜的方法能够全部通吃,每张图不一样,参数也要适当做修改。

启发:

如何修改这个流程让其仅替换脸部?不用文生图来做底图。上传2张图,1张是将要替换脸部的,另1张是将要被替换脸部的图,身体保留。这样能够做到真实性,避免衣服变形或者字体动态不对。(当然前提是对真实性要求非常高的前提下)

ComfyUI-电商模特好帮手肖像大师(中文版)工作流

我为什么分享这个工作流失是因为我有过电商服装、护肤品视觉设计的工作经历,其次加上flux模型的加持,改善手指的正确刻画搭配flux-lora真实模型这个工作流在ComfyUI-稳定性相比SD和MJ要好。

flux基础模型搭配真实flux-lora模型的真人流程我下次会编写成文档,谈谈我的感受。这次分享由github作者【ZHO】分享的肖像大师的工作流

我使用的是SDXL真人模型,中途没有挂在任何lora模型,这个插件(工作流)的特点就是通过将人像定制实现了具像化参数化更精准的控制功能

整体工作流:

插件参数

生成效果

这个流程真正的做到了真实人像,因为往往拿来做设计的模特图设计师一般除了模特好看之外还会关注真假感觉,如果被消费者识别出一眼AI效果,将对品牌的信任度也有影响。

大而全的人种选择:

特定姿势定制:

还有其他各种脸部的定制修改,有点像游戏捏脸玩法了吼。不再赘述……