Commit
•
26433d6
1
Parent(s):
1447e7b
Update markdown/unit3/README_CN.md (#3)
Browse files- Update markdown/unit3/README_CN.md (f88ee2ad1e3af3b3fb87ac2c63ac75ef3fb9aad4)
Co-authored-by: HoiM Y <[email protected]>
- markdown/unit3/README_CN.md +13 -12
markdown/unit3/README_CN.md
CHANGED
@@ -1,6 +1,6 @@
|
|
1 |
# 单元3:Stable Diffusion
|
2 |
|
3 |
-
欢迎来到 Hugging Face
|
4 |
|
5 |
## 开始这一单元 :rocket:
|
6 |
|
@@ -20,35 +20,36 @@
|
|
20 |
![SD example images](sd_demo_images.jpg)<br>
|
21 |
_示例图片,由 Stable Diffusion 生成_
|
22 |
|
23 |
-
Stable Diffusion 是一个强大的文本条件隐式扩散模型(text-conditioned latent diffusion model
|
24 |
|
25 |
## 隐式扩散(Latent Diffusion)
|
26 |
|
27 |
-
当图片尺寸变大时,需要的计算能力也随之增加。这种现象在自注意力机制(self-attention)这种操作的影响下尤为突出,因为操作数随着输入量的增大呈平方地增加。一个 128px 的正方形图片有着四倍于 64px 正方形图片的像素数量,所以在自注意力层就需要16倍(4<sup>2</sup
|
28 |
|
29 |
![latent diffusion diagram](https://github.com/CompVis/latent-diffusion/raw/main/assets/modelfigure.png)<br>
|
30 |
_Diagram from the [Latent Diffusion paper](http://arxiv.org/abs/2112.10752)_
|
31 |
|
32 |
-
隐式扩散致力于克服这一难题,它使用一个独立的模型 Variational Auto-Encoder(VAE
|
33 |
|
34 |
-
|
35 |
|
36 |
## 以文本为生成条件
|
37 |
|
38 |
-
在第二单元,我们展示了如何将额外信息输入到 UNet
|
|
|
39 |
|
40 |
![text encoder diagram](text_encoder_noborder.png)<br>
|
41 |
_图表:文本编码过程,即将输入的文本提示转化为一系列的文本嵌入(即图中的 encoder_hidden_states),然后输入 Unet 作为生成条件_
|
42 |
|
43 |
-
为了达成这一目的,我们首先需要为文本创建一个数值的表示形式,用来获取文字描述的相关信息。为此,SD 利用了一个名为CLIP的预训练transformer模型。CLIP
|
44 |
|
45 |
![conditioning diagram](sd_unet_color.png)
|
46 |
|
47 |
-
那我们如何实际地将这些条件信息输入到 UNet 里让它预测使用呢?答案是使用交叉注意力机制(cross-attention)。交叉注意力层从头到尾贯穿了 UNet 结构。UNet 中的每个空间位置都可以“注意”文字条件中不同的token,以此从文字提示中获取到了不同位置的相互关联信息。上面的图表就展示了文字条件信息(以及基于时间周期 time-step
|
48 |
|
49 |
## 无分类器的引导
|
50 |
|
51 |
-
|
52 |
|
53 |
![CFG scale demo grid](cfg_example_0_1_2_10.jpeg)<br>
|
54 |
_由描述 "An oil painting of a collie in a top hat" 生成的图片(从左到右的 CFG scale 分别是 0、1、2、10)_
|
@@ -57,19 +58,19 @@ _由描述 "An oil painting of a collie in a top hat" 生成的图片(从左
|
|
57 |
|
58 |
## 其它类型的条件生成:超分辨率、图像修补、深度图到图像的转换
|
59 |
|
60 |
-
我们也可以创建各种接收不同生成条件的 Stable Diffusion
|
61 |
|
62 |
![depth to image example](https://huggingface.co/stabilityai/stable-diffusion-2-depth/resolve/main/depth2image.png)<br>
|
63 |
_基于深度的 SD 模型可以根据同一个全局结构生成不同的图片(示例来自StabilityAI)_
|
64 |
|
65 |
-
用相似的方式,我们也可以输入一个低分辨率图片作为条件,让模型生成对应的高分辨率图片([正如Stable Diffusion Upscaler](https://huggingface.co/stabilityai/stable-diffusion-x4-upscaler)一样)。此外,我们还可以输入一个掩膜(mask),让模型知道图像相应的区域需要让模型用in-painting的方式重新生成一下:掩膜外的区域要和原图片保持一致,掩膜内的区域要生成出新的内容。
|
66 |
|
67 |
## 使用 DreamBooth 微调
|
68 |
|
69 |
![dreambooth diagram](https://dreambooth.github.io/DreamBooth_files/teaser_static.jpg)
|
70 |
_由 Imagen model 生成的图片,来自[dreambooth 项目页](https://dreambooth.github.io/)_
|
71 |
|
72 |
-
DreamBooth
|
73 |
|
74 |
## 用来上手的笔记本示例
|
75 |
|
|
|
1 |
# 单元3:Stable Diffusion
|
2 |
|
3 |
+
欢迎来到 Hugging Face 扩散模型课程的第三单元!在这一单元,我们将学习 Stable Diffusion(SD)模型。
|
4 |
|
5 |
## 开始这一单元 :rocket:
|
6 |
|
|
|
20 |
![SD example images](sd_demo_images.jpg)<br>
|
21 |
_示例图片,由 Stable Diffusion 生成_
|
22 |
|
23 |
+
Stable Diffusion 是一个强大的文本条件隐式扩散模型(text-conditioned latent diffusion model)。它根据文字描述生成惊艳图片的能力震惊了整个互联网。在本章,我们将会一探 SD 的工作原理并了解一些相关使用技巧。
|
24 |
|
25 |
## 隐式扩散(Latent Diffusion)
|
26 |
|
27 |
+
当图片尺寸变大时,需要的计算能力也随之增加。这种现象在自注意力机制(self-attention)这种操作的影响下尤为突出,因为操作数随着输入量的增大呈平方地增加。一个 128px 的正方形图片有着四倍于 64px 正方形图片的像素数量,所以在自注意力层就需要16倍(4<sup>2</sup>)的内存和计算量。这是高分辨率图片生成任务的普遍问题。
|
28 |
|
29 |
![latent diffusion diagram](https://github.com/CompVis/latent-diffusion/raw/main/assets/modelfigure.png)<br>
|
30 |
_Diagram from the [Latent Diffusion paper](http://arxiv.org/abs/2112.10752)_
|
31 |
|
32 |
+
隐式扩散致力于克服这一难题,它使用一个独立的模型 Variational Auto-Encoder(VAE)**压缩**图片到一个更小的空间维度。这背后的原理是,图片通场都包含了大量的冗余信息。因此,我们可以训练一个 VAE,并通过大量足够的图片数据训练,使得它可以将图片映射到一个较小的**隐式**空间,并将这个较小的特征映射回原图片。SD 模型中的 VAE 接收一个三通道图片输入,生成出一个四通道的隐式表征,同时每一个空间维度上都减少为原来的八分之一。比如,一个 512px 的正方形图片将会被压缩到一个 4×64×64 的隐式表征上。
|
33 |
|
34 |
+
通过在**隐式表征**上(而不是完整图像上)进行扩散过程,我们可以使用更少内存、减少 UNet 层数、加速生成。同时我们仍能把结果输入 VAE 的解码器,解码得到高分辨率图片。这一创新点极大地降低了训练和推理成本。
|
35 |
|
36 |
## 以文本为生成条件
|
37 |
|
38 |
+
在第二单元,我们展示了如何将额外信息输入到 UNet,让我们对生成的图片有了额外的控制。我们把这种方法叫做条件生成。给定一个带噪图片,我们让模��**基于额外的线索**(比如类别标签,或 Stable Diffusion 中的文字描述)去预测去噪后的图片。
|
39 |
+
在推理阶段,我们可以输入对期望图片的文字表述,使用纯噪声数据作为起始点,然后模型就开始全力对噪声输入进行“去噪”,生成能匹配上文字描述的图片。
|
40 |
|
41 |
![text encoder diagram](text_encoder_noborder.png)<br>
|
42 |
_图表:文本编码过程,即将输入的文本提示转化为一系列的文本嵌入(即图中的 encoder_hidden_states),然后输入 Unet 作为生成条件_
|
43 |
|
44 |
+
为了达成这一目的,我们首先需要为文本创建一个数值的表示形式,用来获取文字描述的相关信息。为此,SD 利用了一个名为 CLIP 的预训练 transformer 模型。CLIP 的文本编码器可以将文字描述转化为特征向量形式,这个特征向量可以用来和图片的特征向量对比相似度。所以这个模型非常适合用来从文字描述来为图像创建有用的表征信息。一个输入文字提示会首先被分词(tokenize,基于一个很大的词汇库把句中的词语或短语转化为一个个的token),然后被输入进 CLIP 的文字编码器,为每个token产出一个 768 维(针对 SD 1.X版本)或1024维(针对SD 2.X版本)的向量。为了使得输入格式一致,文本提示总是被补全或截断到含有 77 个 token 的长度,所以每个文字提示最终作为生成条件的表示形式是一个形状为 77×1024 的张量。
|
45 |
|
46 |
![conditioning diagram](sd_unet_color.png)
|
47 |
|
48 |
+
那我们如何实际地将这些条件信息输入到 UNet 里让它预测使用呢?答案是使用交叉注意力机制(cross-attention)。交叉注意力层从头到尾贯穿了 UNet 结构。UNet 中的每个空间位置都可以“注意”文字条件中不同的token,以此从文字提示中获取到了不同位置的相互关联信息。上面的图表就展示了文字条件信息(以及基于时间周期 time-step 的条件)是如何在不同的位置点输入的。可以看到,UNet 的每一层都有机会去利用这些条件信息!
|
49 |
|
50 |
## 无分类器的引导
|
51 |
|
52 |
+
然而很多时候,即使我们付出了很多努力尽可能让文本成为生成的条件,但模型仍然会在预测时大量地基于带噪输入图片,而不是文字。在某种程度上,这其实是可以解释得通的:很多说明文字和与之关联的图片相关性很弱,所以模型就学着不去过度依赖文字描述!可是这并不是我们期望的效果。如果模型不遵从文本提示,那么我们很可能得到与我们描述根本不相关的图片。
|
53 |
|
54 |
![CFG scale demo grid](cfg_example_0_1_2_10.jpeg)<br>
|
55 |
_由描述 "An oil painting of a collie in a top hat" 生成的图片(从左到右的 CFG scale 分别是 0、1、2、10)_
|
|
|
58 |
|
59 |
## 其它类型的条件生成:超分辨率、图像修补、深度图到图像的转换
|
60 |
|
61 |
+
我们也可以创建各种接收不同生成条件的 Stable Diffusion 模型。比如[深度图到图像转换模型](https://huggingface.co/stabilityai/stable-diffusion-2-depth)使用深度信息作为生成条件。在推理阶段,可以输入一个目标图片的深度图,以此来让模型生成一个有相似全局结构的图片。
|
62 |
|
63 |
![depth to image example](https://huggingface.co/stabilityai/stable-diffusion-2-depth/resolve/main/depth2image.png)<br>
|
64 |
_基于深度的 SD 模型可以根据同一个全局结构生成不同的图片(示例来自StabilityAI)_
|
65 |
|
66 |
+
用相似的方式,我们也可以输入一个低分辨率图片作为条件,让模型生成对应的高分辨率图片([正如Stable Diffusion Upscaler](https://huggingface.co/stabilityai/stable-diffusion-x4-upscaler)一样)。此外,我们还可以输入一个掩膜(mask),让模型知道图像相应的区域需要让模型用in-painting 的方式重新生成一下:掩膜外的区域要和原图片保持一致,掩膜内的区域要生成出新的内容。
|
67 |
|
68 |
## 使用 DreamBooth 微调
|
69 |
|
70 |
![dreambooth diagram](https://dreambooth.github.io/DreamBooth_files/teaser_static.jpg)
|
71 |
_由 Imagen model 生成的图片,来自[dreambooth 项目页](https://dreambooth.github.io/)_
|
72 |
|
73 |
+
DreamBooth 可以用来微调文字到图像的生成模型,教它一些新的概念,比如某一特定物体或某种特定风格。这一技术一开始是为 Google 的 Imagen Model 开发的,但被很快应用于 [stable diffusion](https://huggingface.co/docs/diffusers/training/dreambooth) 中。效果十分惊艳(如果你最近在社交媒体上看到谁使用了 AI 生成的头像,那这个头像有很大概率是出自于基于 DreamBooth 的服务),但该技术也对各种设置十分敏感。所以请学习我们这一单元的笔记本,并阅读[这个对不同训练参数的调研资料](https://huggingface.co/blog/dreambooth)来获取些参考,让模型尽可能地起作用。
|
74 |
|
75 |
## 用来上手的笔记本示例
|
76 |
|