stable diffusion实践操作-writing

文章目录

  • 前言
    • 一、优点
      • 1.1、免费开源
      • 1.2、拥有强大的外接模型
    • 二、组成要素
      • 2.1 底模
      • 2.2 风格
      • 2.3 提示词
      • 2.4 参数配置
    • 三、生图原理
    • 四、下载链接
  • 实践正文
    • 一、安装
      • 1.1 电脑硬件配置查看
      • 1.2 安装本地版本的stable diffusion
      • 1.3 SD使用教程
    • 二、模型介绍与下载
      • 2.1大模型
      • 2.2 Lora模型
      • 2.3 VAE美化模型
      • 2.4 Hypernetworks超网络模型
      • 2.5 LyCORIS
      • 2.6 embedding(TEXTUAL INVERSION)
      • 2.7 ControlNet
    • 三、生图操作
      • 4.1 基础- 提示词文生图
      • 4.2 基础-png图片成文生图
      • 4.3 基础-图生图
      • 4.4 基础-黑白稿线稿上色
      • 4.4 基础-局部重绘
      • 4.x 进阶-文生图-组合
    • 四、参数介绍
      • 4.1 提示词
      • 4.2 CLIP 终止层数
      • 4.3 采样方法和迭代步数
      • 4.4 宽高设置以及高清修复
      • 4.5 随机数种子(seed)
      • 4.6 面部修复
    • 五.AI绘制内容
      • 1.动画

前言

Stable Diffusion的定义:
Stable Diffusion(简称SD)是一种人工智能生成图像的软件。通过输入文字描述,SD能够生成对应的图片,无需像以往那样需要手工”绘制”或”拍摄”照片。

Stable Diffusion

一、优点

1.1、免费开源

Midjourney 需要开魔法使用,免费额度用完之后付费才能继续,最低 10 美元/月。而 SD 在 B 站上有大神整理好的整合安装包,不用魔法,免费下载一键安装。 安装到本地的 SD 随开随用,生成的图片只有自己能看到,保密性更强。

1.2、拥有强大的外接模型

由于开源属性,SD 有很多免费高质量的外接预训练模型(fine-tune)和插件,比如可以提取物体轮廓、人体姿势骨架、画面深度信息、进行语义分割的插件 Controlnet,使用它可以让我们在绘画过程中精准控制人物的动作姿势、手势和画面构图等细节;插件 Mov2Mov 可以将真人视频进行风格化转换;SD 还拥有 Inpainting 和 Outpainting 功能,可以对图像进行智能局部修改和外延,这些都是目前 Midjourney 无法做到的。
国外:https://civitai.com/
国内:https://www.liblibai.com/

二、组成要素

组要有四大部分组成,分别是:

2.1 底模

大模型,决定了图片的基础风格,比如真实照片风格(chilloutmix模型),二次元漫画风格(Anything模型)

2.2 风格

Lora模型,决定了图片的细节风格,比如人物脸型(koreanDollLikeness),衣服款式(Beautiful_Dress)

2.3 提示词

描述画面的具体内容,正面提示词,负面提示词。

2.4 参数配置

迭代步数,采样模式等。

三、生图原理

stable diffusion实践操作-SD原理

四、下载链接

主要内容有:
1.前置包(无需使用,新手可直接跳过)
2.安装包
3.精选大模型
4.精选embedding
5.精选lora
6.精选 hypernetwork
7.精选姿势包
8.Contronet模型包
9.Vae
10.插件包
11.提示词合集(新加)
12.附录1处理器、GPU购买指南

链接:https://pan.quark.cn/s/218e0e20a915
非常感谢轩轩,大家可以看他的入门教程:入口

实践正文

一、安装

1.1 电脑硬件配置查看

链接入口:stable diffusion实践操作-电脑硬件查看

1.2 安装本地版本的stable diffusion

链接入口:stable diffusion实践操作-安装

1.3 SD使用教程

链接入口:stable diffusion实践操作-webUI教程-不是基础-是特例妙用

二、模型介绍与下载

2.1大模型

底模/大模型 是SD能够绘图的基础模型,控制图片整体风格,比如二次元anything,真实写照等。
安装完SD软件后,必须搭配基础模型才能使用。不同的基础模型,其画风和擅长的领域会有侧重。常见的模式,后缀ckpt,safetensors,大小在2-8G之间。

链接入口:stable diffusion实践操作-大模型介绍
链接入口:stable diffusion实践操作-大模型介绍-SDXL1大模型
下载后存放地址:sd-webui-aki-v4.2\models\Stable-diffusion

2.2 Lora模型

Lora是微调模型,某品牌汽车(特斯拉),人物姿势(剪刀手),可以固定我们照片的特征:人物特征、动作特征、还有照片风格。

链接入口:stable diffusion实践操作-常见lora模型介绍

下载后存放地址:sd-webui-aki-v4.2\models\Lora

2.3 VAE美化模型

VAE,全名Variational autoenconder,中文叫变分自编码器。作用是:滤镜+微调 ,名字中带有vae,后缀ckpt,pt
有的大模型是会自带VAE的,比如我们常用的Chilloutmix。如果再加VAE则可能画面效果会适得其反 。

链接入口:stable diffusion实践操作-VAE

下载后存放地址:sd-webui-aki-v4.2\models\VAE

2.4 Hypernetworks超网络模型

链接入口:stable diffusion实践操作-hypernetworks

下载后存放地址:sd-webui-aki-v4.2\models\hypernetworks

2.5 LyCORIS

此类模型也可以归为Lora模型,也是属于微调模型的一种。一般文件大小在340M左右。不同的是训练方式与常见的lora不同,但效果似乎会更好不少。

链接入口:stable diffusion实践操作-LyCORIS

下载后存放地址:sd-webui-aki-v4.2\models\LyCORIS

2.6 embedding(TEXTUAL INVERSION)

可以理解为提示词的集合,可以省略大量的提示词。主要是负向提示词,后缀safetensors,大小几十kb

链接入口:stable diffusion实践操作-embedding(TEXTUAL INVERSION)

下载后存放地址:sd-webui-aki-v4.2\embeddings

2.7 ControlNet

正常来说,秋叶安装包就有一些模型的,其余后期补充。
介绍链接:https://zhuanlan.zhihu.com/p/619721909

链接入口:stable diffusion实践操作-Controlnet

下载后存放地址:sd-webui-aki-v4.2\models\ControlNet

三、生图操作

4.1 基础- 提示词文生图

链接入口:stable diffusion实践操作-文生图

4.2 基础-png图片成文生图

链接入口:stable diffusion实践操作-图片生文字到图片

4.3 基础-图生图

链接入口:stable diffusion实践操作-图生图

4.4 基础-黑白稿线稿上色

链接入口:stable diffusion实践操作-黑白稿线稿上色

4.4 基础-局部重绘

链接入口:stable diffusion实践操作-局部重绘

4.x 进阶-文生图-组合

将需求进行拆分,熟练运用组合,比如:

  1. KoreranDollLikeness + Beautiful_dress + Chilloutmix
  2. MIX4 + 20D 黑丝 + Chilloutmix

链接入口: 进阶-文生图-组合(KoreranDollLikeness + Beautiful_dress + CHilloutmix)

四、参数介绍

4.1 提示词

提示词是SD中非常重要,你生成的图片质量,基本就取决于提示词的好坏,提示词分为正向提示词和反向提示词

模板如下:画质 + 主体 + 主体细节 + 人物服装 + 其他(背景、天气、构图等)

Best quality,masterpiece,ultra high res,nu no humans,
 (long:1.2),<lora:long-000020:0.8>, no humans, cloud, 
 architecture, east asian architecture, red eyes, horns, 
 open mouth, sky, fangs, eastern dragon, cloudy sky, 
 teeth, flying, fire, bird, wings.

链接入口:stable diffusion实践操作-提示词

4.2 CLIP 终止层数

链接入口:CLIP

4.3 采样方法和迭代步数

链接入口:采样方法

4.4 宽高设置以及高清修复

链接入口:stable diffusion实践操作-宽高设置以及高清修复

4.5 随机数种子(seed)

当使用相同的大模型、关键词、Lora模型和其他参数时,生成的图像可能与他人不同,其中一个影响因素是随机数种子(Seed)。
随机数种子控制了图像生成的底层形状,类似于画画时最开始的线稿。它决定了图像的基础轮廓,包括人物的外形轮廓、姿势和站位等。
当随机数为“-1”的时候,SD就会随机给你的照片生成一个种子,这个种子就理解成不一样的线稿就可以,你可以在生成的图像下方查看英文字符串中的seed值,以了解当前生成图像所使用的随机数种子。

链接入口:stable diffusion实践操作-随机种子seed

4.6 面部修复

这两个功能没有太多讲解,直接使用即可。
注意点如下:

  • 面部修复适用于生成真人照片。
  • 高分辨率修复需要较好的电脑配置,配置较低的电脑不建议使用,否则可能无法生成照片

五.AI绘制内容

1.动画

如何使用AI绘制动画

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
社会演员多的头像社会演员多普通用户
上一篇 2023年12月21日
下一篇 2023年12月21日

相关推荐