Stable Diffusion(SD) Lora模型

Lora模型

1. Lora模型tag

1.1 打tag路径

1.2 打tag准备

还有一个重要的点,就是你想固化的特征不要去打tag,打的tag不是单纯的对图片进行描述,还要考虑到是否是变量, tag尽量都是变量,也就是说是你期望模型生成的时候可以根据你的文字改变的。举个例子,一个红头发女孩,如果tag里面有red hair,AI会认为这个是可变量,后面模型生成的时候你输入white hair就可以生成白发女孩,但如果tag里面没有red hair,AI会认为红发是这个女孩的本身特征是固定的,即使模型后面输入white hair,生成的女孩也只会是红发不会变白发。

如何从零开始训练一个高质量的LoRA模型 – 哔哩哔哩 (bilibili.com)

参考这篇博客对于tag部分的说明。所以总而言之,tag是变量,是未来想灵活调整的可以被替换的内容,如果不想被替换的就不要写。
————————————————
版权声明:本文为CSDN博主「不学能干嘛」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/m0_59805198/article/details/135070297

1.3 分类进行打tag

视频:lora训练教程

2. Lora模型训练核心参数

2.1 步数相关 repeat / epoch / batch_size

2.1.1 image训练集tag文本

每张图片在ai中学习的次数

2.1.2 repeat

2.1.3 epoch

epoch多轮次比单轮次要好,通过设置可以每轮保存一组模型,多轮次说明有多组模型,得到好概率的可能是比单轮次就一个模型的概率是要高的,epoch一般设置5~10;
epoch=repeat*图片数量

2.1.4 batch_size

取决硬件
同一时间学习几张图片
收敛;AI最终出来的图片跟你的原图有多像,原图越像,收敛越好
batch_size加大,收敛越慢
batch_size要是高,一是可能显存带不动,二是值越高训练越快 越可能学得囫囵吞枣收敛得慢。
BS从1到2,Ir就要*2

2.1.5 total optimization steps(总训练步数)

2.2 速率/质量相关 Ir学习率 / Dim网络维度 / Optimizer优化器

2.2.1 学习率

2.2.2 Network dimension(Dim网络维度)

### 2.2.3 Optimizer(优化器)

3. 参数和模型之间的联动关系

3.1 只调整repeat

3.2 只调整repeat和epoches

3.3 只调整学习率


4. 新手参数建议

版权声明:本文为博主作者:qq_49326297原创文章,版权归属原作者,如果侵权,请联系我们删除!

原文链接:https://blog.csdn.net/qq_49326297/article/details/135494610

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
乘风的头像乘风管理团队
上一篇 2024年1月16日
下一篇 2024年1月16日

相关推荐