Update DiffusionModel_CN_book_Chapter9/README_chapter9.md
Browse files
DiffusionModel_CN_book_Chapter9/README_chapter9.md
CHANGED
@@ -1,6 +1,6 @@
|
|
1 |
### 第九章
|
2 |
|
3 |
-
## 9.1
|
4 |
|
5 |
经过了之前的章节学习之后,相信你已经能够熟练的使用prompt来描述并生成一幅精美的画作了。通常来说,Prompt的准确性越高、描述的越丰富,生成的画作也会越符合你心目中的样子。
|
6 |
然而你也许也注意到了一件事:无论我们再怎么精细的使用prompt来指导Stable diffusion模型,也无法描述清楚人物四肢的角度、背景中物体的位置、每一缕光线照射的角度等等。文字的能力是有极限的!
|
@@ -8,7 +8,7 @@
|
|
8 |
为了成为一个更加优秀的AI画手,我们需要突破文字提示(Text conditioning),找到一种能够通过图像特征来为扩散模型的生成过程提供更加精细的控制的方式,也就是:图像提示(Image Conditioning)
|
9 |
幸运的是,我们恰好已经有了这样的工具:[ControlNet](https://arxiv.org/abs/2302.05543)
|
10 |
|
11 |
-
## 9.
|
12 |
|
13 |
ControlNet是一种能够嵌入任意已经训练好的扩散模型中,为这些模型提供更多控制条件的神经网络结构。其基本结构如下图所示:
|
14 |
|
@@ -59,9 +59,119 @@ $$\partial y/\partial x\neq 0$$
|
|
59 |
|
60 |
请注意,因为在该训练过程中原本的扩散模型的权重不会产生任何梯度(我们锁死了这一部分!),所以即使我们添加了十四个ControlNet blocks,整个训练过程也不会需要比训练原先扩散模型更多的显存。
|
61 |
|
62 |
-
## 9.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
63 |
|
64 |
-
你可以在HuggingFace上找到ControlNet的作者放出的若干已经训练好的模型:https://huggingface.co/lllyasviel/ControlNet。以下是这些模型的图例:
|
65 |
|
66 |
|
67 |
|
|
|
1 |
### 第九章
|
2 |
|
3 |
+
## 9.1 Image Conditioning
|
4 |
|
5 |
经过了之前的章节学习之后,相信你已经能够熟练的使用prompt来描述并生成一幅精美的画作了。通常来说,Prompt的准确性越高、描述的越丰富,生成的画作也会越符合你心目中的样子。
|
6 |
然而你也许也注意到了一件事:无论我们再怎么精细的使用prompt来指导Stable diffusion模型,也无法描述清楚人物四肢的角度、背景中物体的位置、每一缕光线照射的角度等等。文字的能力是有极限的!
|
|
|
8 |
为了成为一个更加优秀的AI画手,我们需要突破文字提示(Text conditioning),找到一种能够通过图像特征来为扩散模型的生成过程提供更加精细的控制的方式,也就是:图像提示(Image Conditioning)
|
9 |
幸运的是,我们恰好已经有了这样的工具:[ControlNet](https://arxiv.org/abs/2302.05543)
|
10 |
|
11 |
+
## 9.2 ControlNet的结构与训练过程
|
12 |
|
13 |
ControlNet是一种能够嵌入任意已经训练好的扩散模型中,为这些模型提供更多控制条件的神经网络结构。其基本结构如下图所示:
|
14 |
|
|
|
59 |
|
60 |
请注意,因为在该训练过程中原本的扩散模型的权重不会产生任何梯度(我们锁死了这一部分!),所以即使我们添加了十四个ControlNet blocks,整个训练过程也不会需要比训练原先扩散模型更多的显存。
|
61 |
|
62 |
+
## 9.3 ControlNet示例
|
63 |
+
|
64 |
+
我们在本章节将展示一些已经训练好的ControlNet的示例,这些图片都来自ControlNet的github repo:https://github.com/lllyasviel/ControlNet。
|
65 |
+
你可以在HuggingFace上找到这些由ControlNet的原作者提供的模型:https://huggingface.co/lllyasviel/ControlNet。
|
66 |
+
|
67 |
+
以下图片中左上角的图像为ControlNet的额外控制条件的输入图像,右侧的图像则为给定条件下稳定扩散模型的生成结果。
|
68 |
+
|
69 |
+
### ControlNet 与 Canny Edge
|
70 |
+
|
71 |
+
Canny edge 检测器是由 John F. Canny 于1986年发明的一种多阶段的边缘检测算法。该算法可以从不同的视觉对象中提取有用的结构信息,从而显著降低图像处理过程中的数据处理量。
|
72 |
+
|
73 |
+
Prompt:"bird"
|
74 |
+
|
75 |
+
![图片](./files/canny.png)
|
76 |
+
|
77 |
+
### ControlNet 与 M-LSD Lines
|
78 |
+
|
79 |
+
M-LSD Lines 是另外一种轻量化边缘检测算法,比较擅长提取图像中的直线线条。训练在M-LSD Lines上的ControlNet很适合生成室内环境的图片。
|
80 |
+
|
81 |
+
Prompt: "room"
|
82 |
+
|
83 |
+
![图片](./files/canny.png)
|
84 |
+
|
85 |
+
### ControlNet 与 HED Boundary
|
86 |
+
|
87 |
+
Soft HED Boundary 能够保存输入图片更多的细节,训练在HED Boundary上的ControlNet很适合用来重新上色和风格重构。
|
88 |
+
|
89 |
+
Prompt: "oil painting of handsome old man, masterpiece"
|
90 |
+
|
91 |
+
![图片](./files/hed.png)
|
92 |
+
|
93 |
+
### ControlNet 与 涂鸦画
|
94 |
+
|
95 |
+
ControlNet 的强大能力甚至不使用任何真实图片提取的信息也能生成高质量的结果。训练在涂鸦数据上的ControlNet能让稳定扩散模型学会如何将儿童涂鸦转绘成高质量的图片。
|
96 |
+
|
97 |
+
Prompt: "turtle"
|
98 |
+
|
99 |
+
### ControlNet 与 人体关键点
|
100 |
+
|
101 |
+
训练在人体关键点数据上的ControlNet,能让扩散模型学会生成指定姿态的人体。
|
102 |
+
|
103 |
+
Prompt: "Chief in the kitchen"
|
104 |
+
|
105 |
+
![图片](./files/humanpose.png)
|
106 |
+
|
107 |
+
### ControlNet 与 语义分割
|
108 |
+
|
109 |
+
语义分割模型是一种提取图像中各个区域语义信息的一种模型,常用来对图像中人体、物体、背景的区域进行划分。训练在语义分割数据上的ControlNet适合让稳定扩散模型来生成特定结构的场景图。
|
110 |
+
|
111 |
+
Prompt: "House"
|
112 |
+
|
113 |
+
![图片](./files/segmentation.png)
|
114 |
+
|
115 |
+
此外还有诸如深度图、Normal Map、人脸关键点等等不同的ControlNet可以使用,我们在这里就不再一一列举了,读者可以自行在HuggingFace上寻找开源模型和示例。
|
116 |
+
|
117 |
+
## 9.4 ControlNet实战
|
118 |
+
|
119 |
+
在本章节中,我们将以Canny Edge为例,展示如何在diffusers中使用 StableDiffusionControlNetPipeline 来生成图像。
|
120 |
+
|
121 |
+
首先我们先运行以下代码来安装需要使用的库:
|
122 |
+
|
123 |
+
```python
|
124 |
+
!pip install -q diffusers==0.14.0 transformers xformers git+https://github.com/huggingface/accelerate.git
|
125 |
+
```
|
126 |
+
|
127 |
+
对应选择的ControlNet,我们还需要安装两个依赖库用来对图像进行处理,以提取不同的图像控制条件。
|
128 |
+
- [OpenCV](https://opencv.org/)
|
129 |
+
- [controlnet-aux](https://github.com/patrickvonplaten/controlnet_aux#controlnet-auxiliary-models) - 一个简单的ControlNet前处理模型集合
|
130 |
+
|
131 |
+
```python
|
132 |
+
!pip install -q opencv-contrib-python
|
133 |
+
!pip install -q controlnet_aux
|
134 |
+
```
|
135 |
+
|
136 |
+
让我们来使用这个著名的 ["戴珍珠耳环的少女"](https://en.wikipedia.org/wiki/Girl_with_a_Pearl_Earring) 来做示范:
|
137 |
+
|
138 |
+
```python
|
139 |
+
from diffusers import StableDiffusionControlNetPipeline
|
140 |
+
from diffusers.utils import load_image
|
141 |
+
|
142 |
+
image = load_image(
|
143 |
+
"https://hf.co/datasets/huggingface/documentation-images/resolve/main/diffusers/input_image_vermeer.png"
|
144 |
+
)
|
145 |
+
image
|
146 |
+
```
|
147 |
+
![图片](./files/girlwithperl.png)
|
148 |
+
|
149 |
+
首先将这张图像送入Canny Edge 边缘提取器做一下前处理:
|
150 |
+
|
151 |
+
```python
|
152 |
+
import cv2
|
153 |
+
from PIL import Image
|
154 |
+
import numpy as np
|
155 |
+
|
156 |
+
image = np.array(image)
|
157 |
+
|
158 |
+
low_threshold = 100
|
159 |
+
high_threshold = 200
|
160 |
+
|
161 |
+
image = cv2.Canny(image, low_threshold, high_threshold)
|
162 |
+
image = image[:, :, None]
|
163 |
+
image = np.concatenate([image, image, image], axis=2)
|
164 |
+
canny_image = Image.fromarray(image)
|
165 |
+
canny_image
|
166 |
+
```
|
167 |
+
![图片](./files/girlwithperl_canny.png)
|
168 |
+
|
169 |
+
|
170 |
+
|
171 |
+
|
172 |
+
|
173 |
+
|
174 |
|
|
|
175 |
|
176 |
|
177 |
|