Glow论文解读
图像生成在GAN和VAE诞生后得到了很快的发展,现在围绕GAN的论文十分火热。生成模型只能受限于GAN和VAE吗?OpenAI给出了否定的答案,OpenAI带来了Glow, 一种基于流的生成模型,虽然基于流的生成模型在2014年就已经提出来了,但是一直没有得到重视。Glow的作者在之前已经在基于流的生成模型上提出了NICE和RealNVP, Glow正是在这两个模型基础加入可逆1x1卷积进行扩展,精确的潜在变量推断在人脸属性上展示了惊艳的实验效果,具体效果可在OpenAI放出的Demo下查看。
论文引入
随着深度神经网络的发展,生成模型也得到了巨大的飞跃。目前已有的生成模型除了Glow外包括三大类,GAN、VAE和Autoregressive model(自回归模型)。 其中自回归模型和VAE是基于似然的方法,GAN则是通过缩小样本和生成之间的分布实现数据的生成。文中对这些已有的生成模型也做了一个小结:
1.自回归模型(Autoregressive model):自回归模型在PixelCNN和PixelRNN上展示了很不错的实验效果,但是由于是按照像素点去生成图像导致计算成本高, 在可并行性上受限,在处理大型数据如大型图像或视频是具有一定麻烦的。
2.变分自编码器(VAE):VAE是在Autoencoder的基础上让图像编码的潜在向量服从高斯分布从而实现图像的生成,优化了数据对数似然的下界,VAE在图像生成上是可并行的, 但是VAE存在着生成图像模糊的问题,Glow文中称之为优化相对具有挑战性。
3.生成对抗网络(GAN):GAN的思想就是利用博弈不断的优化生成器和判别器从而使得生成的图像与真实图像在分布上越来越相近。GAN生成的图像比较清晰, 在很多GAN的拓展工作中也取得了很大的提高。但是GAN生成中的多样性不足以及训练过程不稳定是GAN一直以来的问题,同时GAN没有潜在空间编码器, 从而缺乏对数据的全面支持。
基于流的生成模型,首先在NICE中得到提出并在RealNVP中延伸。可以说流的生成模型被GAN的光芒掩盖了,但是是金子总会发光。Glow一文算是将流生成模型 推到了学术的前沿,已经有很多学者在讨论Glow的价值,甚至有说Glow将超越GAN。具体还要看学术圈的进一步发展,不过Glow确实在图像的生成, 尤其是在图像编码得到的潜在向量精确推断上展示了很好的效果。在OpenAI放出的Demo上展示了很惊艳的实验效果,就人脸合成和属性变化上可以看出Glow确实可以媲美GAN。
基于流的生成模型总结一下具有以下优点:
- 精确的潜在变量推断和对数似然评估,在VAE中编码后只能推理出对应于数据点的潜在变量的近似值,GAN根本就没有编码器更不用谈潜在变量的推断了。在Glow这样的可逆生成模型中,可以在没有近似的情况下实现潜在变量的精确的推理,还可以优化数据的精确对数似然,而不是其下限。
- 高效的推理和合成,自回归模型如PixelCNN,也是可逆的,然而这样的模型合成难以实现并行化,并且通常在并行硬件上效率低下。而基于流的生成模型如Glow和RealNVP都能有效实现推理与合成的并行化。
- 对下游任务有用的潜在空间,自回归模型的隐藏层有未知的边际分布,使其执行有效的数据操作上很困难;在GAN中,由于模型没有编码器使得数据点通常不能在潜在空间中直接被表征,并且表征完整的数据分布也是不容易的。而在可逆生成模型和VAE中不会如此,它们允许多种应用,例如数据点之间的插值,和已有数据点的有目的修改。
- 内存的巨大潜力,如RevNet论文所述,在可逆神经网络中计算梯度需要一定量的内存,而不是线性的深度。
基于流的生成模型的优势展示了Glow的魅力,但是在Glow论文解读前,我们还是先回顾一下前两个基于流的生成模型NICE和RealNVP。
NICE
NICE的全称为NON-LINEAR INDEPENDENT COMPONENTS ESTIMATION翻译过来就是“非线性独立分量估计”。整体上来说,NICE是为了对复杂的高维数据进行 非线性变换,将高维数据映射到潜在空间,产生独立的潜在变量。这个过程是可逆的,即可以从高维数据映射到潜在空间,也可以从潜在空间反过来映射到高维数据。
为了实现这个可逆的映射关系,就需要找到一个满足映射的函数\(f\),使得\(h=f(x)\),这里的\(x\)就是高维数据,对应到图像生成上\(x\)就是输入的图像, \(h\)就是映射到的潜在空间。这个过程是可逆的,也就是\(x=f^{-1}(h)\)。这个潜在空间可以给定一个先验分布\(p_H(h)\),即\(h \sim p_H(h)\)。 所以实现NICE的关键就是找到这个可逆的映射\(f\),这个不是一件容易的事,此时就引入了一个矩阵用于辅助实现映射,这就是雅克比矩阵。
雅可比矩阵
假设\(F:{R_n} \to {R_m}\)是一个从欧式n维空间转换到欧式m维空间的函数. 这个函数由m个实函数组成: \(y_1(x_1,...,x_n),...,y_m(x_1,...,x_n)\)。 这些函数的偏导数(如果存在)可以组成一个m行n列的矩阵, 这就是所谓的雅可比矩阵:
\[\begin{bmatrix} \frac{\partial y_1}{\partial x_1} & \cdots & \frac{\partial y_1}{\partial x_n} \\ \vdots & \ddots & \vdots \\ \frac{\partial y_m}{\partial x_1} & \cdots & \frac{\partial y_m}{\partial x_n} \end{bmatrix}\]此矩阵表示为:\({J_F}({x_1}, \ldots ,{x_n})\),或者\(\frac{{\partial ({y_1}, \ldots ,{y_m})}}{{\partial ({x_1}, \ldots ,{x_n})}}\)
雅可比行列式
如果\(m = n\), 那么\(F\)是从n维空间到n维空间的函数,且它的雅可比矩阵是一个方块矩阵,此时存在雅克比行列式。
雅克比矩阵有个重要的性质就是一个可逆函数(存在反函数的函数)的雅可比矩阵的逆矩阵即为该函数的反函数的雅可比矩阵。即,若函数\(F:{R_n} \to {R_n}\) 在点\(p \in R_n\)的雅可比矩阵是连续且可逆的,则\(F\)在点\(p\)的某一邻域内也是可逆的,且有\(J_{F^{-1}} \circ f = J_F^{-1}\)。
对雅克比矩阵有所了解后就可以实现映射:
\[p_X(x) = p_H(f(x))\vert det \frac{\partial f(x)}{\partial x} \vert\]其中\(\frac{\partial f(x)}{\partial x}\)就是\(x\)处的函数\(f\)的雅可比矩阵。
设计这个映射函数f的核心就是将输入\(x\)进行分块,即\(x\Rightarrow (x_1,x_2)\)
\[\begin{cases} y_1 = x_1 \\ y_2 = x_2 + m(x_1) \end{cases}\]其中m是任意复杂的函数,但是这个分块对于任何m函数都具有单位雅克比行列式,切下面是可逆的:
\[\begin{cases} x_1 = y_1 \\ x_2 = y_2 - m(y_1) \end{cases}\]上面的映射用对数表示就是:
\[log(p_X(x)) = log(p_H(f(x))) + log(\vert det \frac{\partial f(x)}{\partial x} \vert)\]计算具有高维域函数的雅可比行列式并计算大矩阵的行列式通常计算量是很大的,所以直接去算雅克比行列式是不现实的,所以需要对计算做一定的简化。 NICE论文采用分层和组合变换的思想处理,即\(f=f_L \circ ... \circ f_2 \circ f_1\)(此处符号根据NICE一文与Glow有些许出入)。 在一些细节优化上可以采用矩阵的上三角矩阵和下三角矩阵做变换表示方阵。
有了分层和组合变换的处理,接着就是对组合关系的确立,文中采用寻找三角形雅克比矩阵函数簇,通过耦合层关联组合关系,也就是对\(x\)做分块找到合适的函数m。 具体的细节这里不展开了,有兴趣的可以阅读原文了解。
RealNVP
RealNVP的全称为real-valued non-volume preserving强行翻译成中文就是“实值非体积保持”,文章的全称为DENSITY ESTIMATION USING REAL NVP, 翻译过来就是“使用RealNVP进行密度估计”。RealNVP是在NICE的基础上展开的,在NICE的基础上将分层和组合变换的思想进一步延伸。
NICE中采用的耦合关系是加性耦合层,即对于一般的耦合层:
\[\begin{cases} y_{I_1} = x_{I_1} \\ y_{I_2} = g(x_{I_2};m(x_{I_1})) \end{cases}\]所谓加性耦合层就是取\(g(a;b) = a + b\),其中\(a = x_{I_2}, b = m(x_{I_1})\)此时:
\[\begin{cases} y_{I_2} = x_{I_2} + m(x_{I_1}) \\ x_{I_2} = y_{I_2} - m(y_{I_1}) \end{cases}\]除了可以选择加性耦合层,还可以选择乘法耦合层或者仿射耦合层(affine coupling layer)
而RealNVP正是采用仿射耦合层来代替加性耦合层,仿射耦合层采用\(g(a;b) = a \odot b_1 + b_2\),其中\(b_1 \neq 0\)此时的m函数为: \(R^d \to R^{D-d}\),\(\odot\)为哈达马积,也就是矩阵的乘法表示,RealNVP引入仿射耦合层后模型更加灵活。 用\(s\)代表尺度,\(t\)代表平移量,此时的分块表示为:
\[\begin{cases} y_{1:d} = x_{1:d} \\ y_{d+1:D} = x_{d+1:D} \odot exp(s(x_{1:d})) + t(x_{1:d}) \end{cases}\] \[\Longrightarrow\] \[\begin{cases} x_{1:d} = y_{1:d} \\ x_{d+1:D} = (y_{d+1:D} - t(x_{1:d})) \odot exp(-s(x_{1:d})) \end{cases}\]这样就实现了通过堆叠一系列简单的双射来构建灵活且易处理的双射函数。
RealNVP在NICE的基础上的另一大改进就是做多尺度框架的设计。所谓的多尺度就是映射得到的最终潜在空间不是一次得到的,而是通过不同尺度的 潜在变量拼接而成的。我们看一下RealNVP给出的多样性示例解释图,这个图其实还不太清晰,在Glow中给的图就已经很清晰了。
上图的意思就是每一次做流生成潜在变量时,由于要将两个潜在变量拼接后输出,为了保证多尺度就每次保留一个潜在变量,将另一个潜在变量返回到输入再次进行流操作, 经过\(L-1\)次流操作后将不再返回到输入而是直接输出和之前的\(L-1\)个潜在变量拼接形成最后的潜在变量的输出。我们再结合公式理解一下,这里稍微有点绕:
\[h^{(0)} = x\] \[(z^{(i+1)},h^{(i+1)}) = f^{(i+1)}(h^{(i)})\] \[z^{(L)} = f^{(L)}(h^{(L-1)})\] \[z = (z^{(1)},...,z^{(L)})\]举个例子就是,比如输入\(x\)有\(D\)维,第一次经过流\(f^1(x)\)得到潜在变量\((z_1,h_1)\)其中\(z_1\)和\(h_1\)维度都是\(\frac{D}{2}\), 保留\(z_1\),将\(h_1\)送入下一轮流将得到\(\frac{D}{4}\)的潜在变量,保留一个,送入另一个,直到第\(L-1\)轮将潜在变量直接输出和其余的潜在变量拼接形成最终的输出\(z\)。 这里强调一下,多尺度框架的循环和流内部的经历的次数没关系,这里为了保留RealNVP原文的符号,采用的符号都是原文中的符号。
RealNVP基本上就是这样,但是细节还有很多,这里不详细展开,深入了解的可读原文。
Glow模型
我们先一起来看看Glow的模型框架:
可以看到整个模型分为(a),(b)其实(a)只是对(b)中的“step of flow”的展开。Glow的思想和前两篇整体上是一致的,都是为了找到可逆的双射来实现输入和潜在空间的相互转换。 在设计映射函数时,采用分层变换的思想,将映射\(f\)函数变换为\(f = f_1 \odot f_2 \odot \cdots \odot f_K\),也就是一个完整的流需要K次 单步流才能完成,即\(x\stackrel{f_1}{\longleftrightarrow}h_1\stackrel{f_2}{\longleftrightarrow}h_2 \cdots \stackrel{f_K}{\longleftrightarrow}z\) (这里的\(h\)值是内部流的过渡符号和上文提到的多尺度结构不同)。在完整流结束后经过split后做多尺度循环,经过\(L-1\)循环最终的潜在变量就是 \(z = (z^{(1)},...,z^{(L)})\)。
我们把单步流的框架再仔细分析一下。
Actnorm
单步流中的第一层就是Actnorm层,全称为activation normalization翻译为激活标准化,整体的作用类似于批归一化。但是批量归一化添加的激活噪声的方差与GPU或其他处理单元(PU) 的小批量大小成反比,这样造成了性能上的下降,所以文章退出了Actnorm。Actnorm使用每个通道的标度和偏差参数执行激活的仿射变换,类似于批量标准化, 初始化这些参数,使得在给定初始数据小批量的情况下,每个通道的后行为动作具有零均值和单位方差。初始化后,标度和偏差被视为与数据无关的常规可训练参数。 可以理解Actnorm就是对输入数据做预处理。
Invertible 1x1 convolution
可逆1x1卷积是在NICE和RealNVP上的改进,NICE和RealNVP是反转通道的排序,而可逆1×1卷积替换该固定置换,其中权重矩阵被初始化为随机旋转矩阵。 具有相等数量的输入和输出通道的1×1卷积是置换操作的概括。通过矩阵的简化计算,可以简化整体的计算量。
Affine Coupling Layers
仿射耦合层在RealNVP中就已有应用,而Glow的基础是默认读者已经掌握了NICE和RealNVP所以单单只读Glow可能不能轻易的理解文章。
仿射耦合层的映入是实现可逆转换的关键,仿射耦合的思想我们上面也有提过,Glow将其分为三部分讲解。
零初始化(Zero initialization):用零初始化每个NN()的最后一个卷积,使得每个仿射耦合层最初执行一个同一性函数,这有助于训练深层网络。
拆分和连接(Split and concatenation):split()函数将输入张量沿通道维度分成两半,而concat()操作执行相应的反向操作:连接成单个张量。 RealNVP中采用的是另一种类型的分裂:沿着棋盘图案的空间维度拆分。Glow中只沿通道维度执行拆分,简化了整体架构。
排列(Permutation):上面的每个流程步骤之前都应该对变量进行某种排列,以确保在充分的流程步骤之后,每个维度都可以影响其他每个维度。 NICE完成的排列类型是在执行加性耦合层之前简单地反转通道(特征)的排序;RealNVP是执行(固定)随机排列;Glow则是采用可逆1x1卷积。 文中也对三种方法做了实验上的比较。
对于单步流的内部操作,文章也做了解释:
Glow实验
实验的开篇是比较Glow和RealNVP,反转操作上NICE采用反转,RealNVP采用固定随机排列,Glow采用可逆1×1卷积,并且耦合方式也影响实验的效果,文章比较了加性耦合层和 仿射耦合层的性能差距。通过在CIFAR-10数据集的平均负对数似然(每维度的比特)来衡量不同操作的差距,其中所有模型都经过K = 32和L = 3的训练, 实验效果如下图:
可以从上图看出,Glow采用的方法都取得了较小的平均负对数似然,这说明了在实验上是由于其他几个模型的。
为了验证RealNVP和Glow整体的框架下的差距,实验进一步扩展,比较了CIFAR-10,ImageNet和LSUN数据集上两者的差距,在相同预处理下得到的结果如下:
正如表2中显示的,模型在所有数据集上实现了显着的改进。
在高分辨率图像的生成上,Glow使用了CelebA-HQ数据集,数据集包含3万张高分辨率的图片。实验生成256x256图像,设置\(K = 32,L = 6\)。我们看到这里的L取了6, 在高分辨率下,多尺度的丰富可能会让得到的潜在变量具有更多的图像细节。试验中采用了退火算法来优化实验,在退火参数\(T = 0.7\)时候,合成的随机样本如下图:
可以看到合成的图像质量和合理性都是很高的,为了对潜在变量插值生成图像,实验以两组真实图片为依据,插值中间的过渡,生成的结果如下:
从上图能看出整体的过渡还是相当顺畅的,感觉很自然,这就是Glow在潜在变量精确推断的优势所在,这样的实验结果让人很惊讶!
为了生成更多含语义的图像,文章利用了一些标签来监督训练,对于不同人脸属性合成的图像如下:
生成的效果和过渡都是很自然合理。
退火模型对提高生成也是很重要的环节,文章对比了不同退火参数T下的实验效果,合理的T的选择对于实验效果还是很重要的。
为了说明模型深度(多尺度)的意义,文中对比了\(L = 4\)和\(L = 6\)的效果,可以看出多尺度对于整体模型的意义还是很大的。
总结
Glow提出了一种新的基于流的生成模型,并在标准图像建模基准上的对数似然性方面展示了改进的定量性能,特别是在高分辨率人脸图像合成和插值生成上取得了 惊艳的效果。从整体的阅读上可以看出Glow可以完成较好的图像合成和变换的工作,具体的工作还要在吃透代码再进一步了解。写的过程中有什么问题,欢迎指正,谢谢!
谢谢观看,希望对您有所帮助,欢迎指正错误,欢迎一起讨论!!!