Update DiffusionModel_CN_book_Chapter9/README_chapter9.md
Browse files
DiffusionModel_CN_book_Chapter9/README_chapter9.md
CHANGED
@@ -0,0 +1,67 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
### 第九章
|
2 |
+
|
3 |
+
## 9.1.1 Image Conditioning
|
4 |
+
|
5 |
+
经过了之前的章节学习之后,相信你已经能够熟练的使用prompt来描述并生成一幅精美的画作了。通常来说,Prompt的准确性越高、描述的越丰富,生成的画作也会越符合你心目中的样子。
|
6 |
+
然而你也许也注意到了一件事:无论我们再怎么精细的使用prompt来指导Stable diffusion模型,也无法描述清楚人物四肢的角度、背景中物体的位置、每一缕光线照射的角度等等。文字的能力是有极限的!
|
7 |
+
|
8 |
+
为了成为一个更加优秀的AI画手,我们需要突破文字提示(Text conditioning),找到一种能够通过图像特征来为扩散模型的生成过程提供更加精细的控制的方式,也就是:图像提示(Image Conditioning)
|
9 |
+
幸运的是,我们恰好已经有了这样的工具:[ControlNet](https://arxiv.org/abs/2302.05543)
|
10 |
+
|
11 |
+
## 9.1.2 ControlNet的结构与训练过程
|
12 |
+
|
13 |
+
ControlNet是一种能够嵌入任意已经训练好的扩散模型中,为这些模型提供更多控制条件的神经网络结构。其基本结构如下图所示:
|
14 |
+
|
15 |
+
![图片](./files/structure.png)
|
16 |
+
|
17 |
+
如图所示,ControlNet的基本结构由一个对应的原本扩散模型的block和两个“零卷积”层组成。在之后的训练过程中,我们会“锁死”原本网络的权重,只更新ControlNet结构中的网路“副本”和零卷积层的权重。
|
18 |
+
这些可训练的神经网络“副本”将学会如何让模型按照新的控制条件来生成结果,而被“锁死”的网络原本则会保留原先网络已经学会的所有知识。
|
19 |
+
这样,即使用来训练ControlNet的训练集规模较小,被“锁死”的网络原本的权重也能确保扩散模型本身的生成效果不受影响。
|
20 |
+
|
21 |
+
在ControlNet中的这些“零卷积层”则是一些weight和bias权重都被初始化为0的 1×1 卷积层。在训练刚开始的时候,无论新添加的控制条件是什么,这些“零卷积”层都只会输出0,因此ControlNet将不会对扩散模型的生成结果造成任何影响。
|
22 |
+
而随着训练过程的深入,ControlNet部分将学会逐渐调整扩散模型原本的生成过程,使得生成的图像逐渐向新添加的控制条件靠近。
|
23 |
+
|
24 |
+
你也许会问,如果一个卷积层的所有参数都为0,输出结果也为0,那么它怎么才能正常的进行权重的迭代过程呢?为了回答这个问题,我们给出一个简单的数学推导过程:
|
25 |
+
|
26 |
+
假设我们有一个简单的神经网络层:
|
27 |
+
|
28 |
+
$$y=wx+b$$
|
29 |
+
|
30 |
+
那么我们知道:
|
31 |
+
|
32 |
+
$$\partial y/\partial w=x, \partial y/\partial x=w, \partial y/\partial b=1$$
|
33 |
+
|
34 |
+
假设其中的权重w为0,输入x不为0,那么我们就有:
|
35 |
+
|
36 |
+
$$\partial y/\partial w \neq 0, \partial y/\partial x=0, \partial y/\partial b\neq 0$$
|
37 |
+
|
38 |
+
这意味着只要输入x不为0,梯度下降的迭代过程就能正常的更新权重w,使其不再为0。那么我们将会得到:
|
39 |
+
|
40 |
+
$$\partial y/\partial x\neq 0$$
|
41 |
+
|
42 |
+
也就是说,经过若干次迭代步骤以后,这些零卷积将会逐渐变成一个有着正常权重的普通卷积层。
|
43 |
+
|
44 |
+
将上面所描述的ControlNet Block堆叠十四次以后,我们就能获得了一个完整的、能够用来对稳定扩散模型添加新的控制的条件的ControlNet:
|
45 |
+
|
46 |
+
![图片](./files/structure2.png)
|
47 |
+
|
48 |
+
仔细研究过这个结构以后,你就会发现,Controlnet实际上使用了训练完成的稳定扩散模型的encoder模块,来作为自己的主干网络。而这样的一个稳定而又强力的主干网络,则保证了ControlNet能够学到更多不同的控制图像生成的方法。
|
49 |
+
|
50 |
+
训练一个附加在某个稳定扩散模型上的ControlNet的过程大致如下:
|
51 |
+
|
52 |
+
1. 收集你所想要的附加控制条件的数据集和对应prompt。假如你想训练一个通过人体关键点来对扩散模型生成的人体进行姿态控制的ControlNet,你需要先收集一批人物的图片,并标注好这些图片的prompt以及对应的人体的关键点的位置。
|
53 |
+
|
54 |
+
2. 将prompt输入被“锁死”的稳定扩散模型,将标注好的图像控制条件(例如人体关键点的标注结果)输入ControlNet模型,然后按照稳定扩散模型的训练过程迭代ControlNet模型的权重。
|
55 |
+
|
56 |
+
3. 训练过程中会随机的将50%的文字提示替换为空白字符串,这样能够“强迫”网络更多的从图像控制条件中学会更多的语义信息。
|
57 |
+
|
58 |
+
4. 训练结束以后,我们就可以使用该ControlNet对应的图像控制条件(例如输入人体骨骼关键点),来控制扩散模型生成符合条件的图像了。
|
59 |
+
|
60 |
+
请注意,因为在该训练过程中原本的扩散模型的权重不会产生任何梯度(我们锁死了这一部分!),所以即使我们添加了十四个ControlNet blocks,整个训练过程也不会需要比训练原先扩散模型更多的显存。
|
61 |
+
|
62 |
+
## 9.1.3 ControlNet的示例
|
63 |
+
|
64 |
+
你可以在HuggingFace上找到ControlNet的作者放出的若干已经训练好的模型:https://huggingface.co/lllyasviel/ControlNet。以下是这些模型的图例:
|
65 |
+
|
66 |
+
|
67 |
+
|