万字长文解读GAN 原理到实际应用 从基本概念 (万字长文解读百年孤独)

文章编号:46032 资讯动态 2024-12-09 GAN

雷锋网 AI 科技评论按,本文作者是我爱馒头,原载于 知乎 。

前阵子学习 GAN 的过程发现现在的 GAN 综述文章大都是 2016 年 Ian Goodfellow 或者自动化所王飞跃老师那篇。可是在深度学习,GAN 领域,其进展都是以月来计算的,感觉那两篇综述有些老了。最近发现有一篇最新的有关 GAN 综述的 paper[1],四十余页,介绍了 GAN 的各个方面,于是就学习并整理笔记如下。文中许多内容大都根据自己所学总结,有不当之处欢迎指出。此外,本文参考了许多博客资料,已给出参考链接。如有侵权,请私信删除。文章目录如下:

万字长文解读GAN:从基本概念、原理到实际应用

万字长文解读GAN:从基本概念、原理到实际应用

万字长文解读GAN:从基本概念、原理到实际应用

1. GAN 的基本介绍

生成对抗网络(GAN,Generative Adversarial Networks)作为一种优秀的生成式模型,引爆了许多图像生成的有趣应用。GAN 相比于其他生成式模型,有两大特点:

下面,我们围绕上述两点展开介绍。

1.1 GAN 的基本概念

GAN(Generative Adversarial Networks)从其名字可以看出,是一种生成式的,对抗网络。再具体一点,就是通过对抗的方式,去学习数据分布的生成式模型。所谓的对抗,指的是生成网络和判别网络的互相对抗。生成网络尽可能生成逼真样本,判别网络则尽可能去判别该样本是真实样本,还是生成的假样本。示意图如下:

万字长文解读GAN:从基本概念、原理到实际应用

隐变量 z(通常为服从高斯分布的随机噪声)通过 Generator 生成 X,判别器负责判别输入的> 万字长文解读GAN:从基本概念、原理到实际应用

对于判别器 D 来说,这是一个二分类问题,V(D,G) 为二分类问题中常见的交叉熵损失。对于生成器 G 来说,为了尽可能欺骗 D,所以需要最大化生成样本的判别概率 D(G(z)),即最小化 万字长文解读GAN:从基本概念、原理到实际应用 (注意: 万字长文解读GAN:从基本概念、原理到实际应用 一项与生成器 G 无关,所以可以忽略。)

实际训练时,生成器和判别器采取交替训练,即先训练 D,然后训练 G,不断往复。值得注意的是,对于生成器,其最小化的是 万字长文解读GAN:从基本概念、原理到实际应用 ,即最小化 V(D,G) 的最大值。为了保证 V(D,G) 取得最大值,所以我们通常会训练迭代 k 次判别器,然后再迭代 1 次生成器(不过在实践当中发现,k 通常取 1 即可)。当生成器 G 固定时,我们可以对 V(D,G) 求导,求出最优判别器D*(x) :

万字长文解读GAN:从基本概念、原理到实际应用

把最优判别器代入上述目标函数,可以进一步求出在最优判别器下,生成器的目标函数等价于优化 p(x) , p(x) 的 JS 散度 (JSD, Jenson Shannon Divergence)。

可以证明,当 G,D 二者的 capacity 足够时,模型会收敛,二者将达到纳什均衡。此时,p(x) = p(x),判别器不论是对于 p(x) 还是 p(x) 中采样的样本,其预测概率均为 0.5,即生成样本与真实样本达到了难以区分的地步。

1.2 目标函数

前面我们提到了 GAN 的目标函数是最小化两个分布的 JS 散度。实际上,衡量两个分布距离的方式有很多种,JS 散度只是其中一种。如果我们定义不同的距离度量方式,就可以得到不同的目标函数。许多对 GAN 训练稳定性的改进,比如 EBGAN,LSGAN 等都是定义了不同的分布之间距离度量方式。

1.2.1 f-divergence

f-divergence 使用下面公式来定义两个分布之间的距离:

万字长文解读GAN:从基本概念、原理到实际应用

上述公式中 f 为凸函数,且 f(1) = 0。采用不同的 f 函数(Generator),可以得到不同的优化目标。具体如下:

万字长文解读GAN:从基本概念、原理到实际应用

值得注意的是,散度这种度量方式不具备对称性,即 万字长文解读GAN:从基本概念、原理到实际应用万字长文解读GAN:从基本概念、原理到实际应用 不相等(严格来说,距离度量方式必须具备对称性,所以散度不是一种距离度量方式,不过此处不去刻意关注这一点,直接把散度也作为一种距离度量方式,下文也是如此)。

上面提到,LSGAN 是 f-divergence 中 万字长文解读GAN:从基本概念、原理到实际应用 时的特殊情况。具体来说 LSGAN 的 Loss 如下:

万字长文解读GAN:从基本概念、原理到实际应用

原作中取 a = c = 1,b = 0。LSGAN 有两大优点 [2]:

对于第一点,稳定训练,可以先看一张图:

万字长文解读GAN:从基本概念、原理到实际应用

上图左边是传统 GAN 使用 sigmoid 交叉熵作为 loss 时,输入与输出的对照关系图。上图右边是 LSGAN 使用最小二乘 loss 时,输入与输出的对照关系图。可以看到,在左图,输入比较大的时候,梯度为 0,即交叉熵损失的输入容易出现梯度饱和现象。而右边的最小二乘 loss 则不然。

对于第二点,改善生成质量。这个在原文也有详细的解释。具体来说:对于一些被判别器分类正确的样本,其对梯度是没有贡献的。但是判别器分类正确的样本就一定是很接近真实数据分布的样本吗?显然不一定。

考虑如下理想情况,一个训练良好的 GAN,真实数据分布 p和 p生成数据分布 完全重合,判别器决策面穿过真实数据点,所以,反过来,我们利用样本点离决策面的远近来度量生成样本的质量,样本离决策面越近,则 GAN 训练的越好。

万字长文解读GAN:从基本概念、原理到实际应用

上图 b 中,一些离决策面比较远的点,虽然被分类正确,但是这些并不是好的生成样本。传统 GAN 通常会将其忽略。而对于 LSGAN,由于采用最小二乘损失,计算决策面到样本点的距离,如图 c,可以把离决策面比较远的点「拉」回来,也就是把离真实数据比较远的点「拉」回来。

1.2.2 Integral probality metric(IPM)

IPM 定义了一个评价函数族 f,用于度量任意两个分布之间的距离。在一个紧凑的空间 万字长文解读GAN:从基本概念、原理到实际应用 中,定义 p(x) 为在 x上的概率测度。那么两个分布 p,p之间的 IPM 可以定义为如下公式:

万字长文解读GAN:从基本概念、原理到实际应用

类似于 f-divergence,不同函数 f 也可以定义出一系列不同的优化目标。典型的有 WGAN,Fisher GAN 等。下面简要介绍一下 WGAN。

WGAN 提出了一种全新的距离度量方式——地球移动距离 (EM, Earth-mover distance),也叫 Wasserstein 距离。关于 Wasserstein 距离的介绍可以参考:

我爱馒头:白话 Wassertein 距离

Wasserstein 距离具体定义如下:

万字长文解读GAN:从基本概念、原理到实际应用

万字长文解读GAN:从基本概念、原理到实际应用 表示一组联合分布,这组联合分布里的任一分布 r 的边缘分布均为 p(x) 和 p(x)。

直观上来说,概率分布函数(PDF)可以理解为随机变量在每一点的质量,所以 W(p, p) 则表示把概率分布 p(x) 搬到 p(x) 需要的最小工作量。

WGAN 也可以用最优传输理论来解释,WGAN 的生成器等价于求解最优传输映射,判别器等价于计算 Wasserstein 距离,即最优传输总代价 [4]。关于 WGAN 的理论推导和解释比较复杂,不过代码实现非常简单。具体来说 [3]:

上述第三点,在 WGAN 的后来一篇工作 WGAN-GP 中,将梯度截断替换为了梯度惩罚。

1.2.3 f-divergence 和 IPM 对比

1.2.4 辅助的目标函数

在许多 GAN 的应用中,会使用额外的 Loss 用于稳定训练或者达到其他的目的。比如在图像翻译,图像修复,超分辨当中,生成器会加入目标图像作为监督信息。EBGAN 则把 GAN 的判别器作为一个能量函数,在判别器中加入重构误差。CGAN 则使用类别标签信息作为监督信息。

1.3 其他常见生成式模型

1.3.1 自回归模型:pixelRNN 与 pixelCNN

自回归模型通过对图像数据的概率分布 p_{data}(x) 进行显式建模,并利用极大似然估计优化模型。具体如下:

万字长文解读GAN:从基本概念、原理到实际应用

上述公式很好理解,给定 万字长文解读GAN:从基本概念、原理到实际应用 条件下,所有 p(x) 的概率乘起来就是图像数据的分布。如果使用 RNN 对上述依然关系建模,就是 pixelRNN。如果使用 CNN,则是 pixelCNN。具体如下 [5]:

万字长文解读GAN:从基本概念、原理到实际应用

万字长文解读GAN:从基本概念、原理到实际应用

pixelCNN

显然,不论是对于 pixelCNN 还是 pixelRNN,由于其像素值是一个个生成的,速度会很慢。语音领域大火的 WaveNet 就是一个典型的自回归模型。

PixelCNN/RNN 定义了一个易于处理的密度函数,我们可以直接优化训练数据的似然;对于变分自编码器我们将定义一个不易处理的密度函数,通过附加的隐变量 z 对密度函数进行建模。VAE 原理图如下 [6]:

万字长文解读GAN:从基本概念、原理到实际应用

在 VAE 中,真实样本 X 通过神经网络计算出均值方差(假设隐变量服从正态分布),然后通过采样得到采样变量 Z 并进行重构。VAE 和 GAN 均是学习了隐变量 z 到真实数据分布的映射。但是和 GAN 不同的是:

生成式模型对比

1.4 GAN 常见的模型结构

1.4.1 DCGAN

DCGAN 提出使用 CNN 结构来稳定 GAN 的训练,并使用了以下一些 trick:

上面这些 trick 对于稳定 GAN 的训练有许多帮助,自己设计 GAN 网络时也可以酌情使用。

1.4.2 层级结构

GAN 对于高分辨率图像生成一直存在许多问题,层级结构的 GAN 通过逐层次,分阶段生成,一步步提生图像的分辨率。典型的使用多对 GAN 的模型有 StackGAN,GoGAN。使用单一 GAN,分阶段生成的有 ProgressiveGAN。StackGAN 和 ProgressiveGAN 结构如下:

万字长文解读GAN:从基本概念、原理到实际应用

1.4.3 自编码结构

经典的 GAN 结构里面,判别网络通常被当做一种用于区分真实/生成样本的概率模型。而在自编码器结构里面,判别器(使用 AE 作为判别器)通常被当做能量函数 (Energy function)。对于离数据流形空间比较近的样本,其能量较小,反之则大。有了这种距离度量方式,自然就可以使用判别器去指导生成器的学习。

AE 作为判别器,为什么就可以当做能量函数,用于度量生成样本离数据流形空间的距离呢?首先,先看 AE 的 loss:

万字长文解读GAN:从基本概念、原理到实际应用

AE 的 loss 是一个重构误差。使用 AE 做为判别器时,如果输入真实样本,其重构误差会很小。如果输入生成的样本,其重构误差会很大。因为对于生成的样本,AE 很难学习到一个图像的压缩表示(即生成的样本离数据流行形空间很远)。所以,VAE 的重构误差作为 p和 p之间的距离度量是合理的。典型的自编码器结构的 GAN 有:BEGAN, EBGAN, MAGAN 等

1.5 GAN 的训练障碍 (Obstacles)

1.5.1 理论中存在的问题

经典 GAN 的判别器有两种 loss,分别是:

万字长文解读GAN:从基本概念、原理到实际应用

1.5.2 实践中存在的问题

GAN 在实践中存在两个问题:

其一,GAN 提出者 Ian Goodfellow 在理论中虽然证明了 GAN 是可以达到纳什均衡的。可是我们在实际实现中,我们是在参数空间优化,而非函数空间,这导致理论上的保证在实践中是不成立的。

其二,GAN 的优化目标是一个极小极大 (minmax) 问题,即 万字长文解读GAN:从基本概念、原理到实际应用 ,也就是说,优化生成器的时候,最小化的是 万字长文解读GAN:从基本概念、原理到实际应用 。可是我们是迭代优化的,要保证 V(G,D) 最大化,就需要迭代非常多次,这就导致训练时间很长。如果我们只迭代一次判别器,然后迭代一次生成器,不断循环迭代。这样原先的极小极大问题,就容易变成极大极小 (maxmin) 问题,可二者是不一样的,即:

万字长文解读GAN:从基本概念、原理到实际应用

如果变化为极小极大问题,那么迭代就是这样的,生成器先生成一些样本,然后判别器给出错误的判别结果并惩罚生成器,于是生成器调整生成的概率分布。可是这样往往导致生成器变「懒」,只生成一些简单的,重复的样本,即缺乏多样性,也叫 mode collapse。

1.5.3 稳定 GAN 训练的技巧

如上所述,GAN 在理论上和实践上存在三个大问题,导致训练过程十分不稳定,且存在 mode collapse 的问题。为了改善上述情况,可以使用以下技巧稳定训练:

1.6 GAN mode collapse 的解决方案

1.6.1 针对目标函数的改进方法

为了避免前面提到的由于优化 maxmin 导致 mode 跳来跳去的问题,UnrolledGAN 采用修改生成器 loss 来解决。具体而言,UnrolledGAN 在更新生成器时更新 k 次生成器,参考的 Loss 不是某一次的 loss,是判别器后面 k 次迭代的 loss。注意,判别器后面 k 次迭代不更新自己的参数,只计算 loss 用于更新生成器。这种方式使得生成器考虑到了后面 k 次判别器的变化情况,避免在不同 mode 之间切换导致的模式崩溃问题。此处务必和迭代 k 次生成器,然后迭代 1 次判别器区分开 [8]。DRAGAN 则引入博弈论中的无后悔算法,改造其 loss 以解决 mode collapse 问题 [9]。前文所述的 EBGAN 则是加入 VAE 的重构误差以解决 mode collapse。

1.6.2 针对网络结构的改进方法

Multi agent diverse GAN(MAD-GAN) 采用多个生成器,一个判别器以保障样本生成的多样性。具体结构如下:

万字长文解读GAN:从基本概念、原理到实际应用

相比于普通 GAN,多了几个生成器,且在 loss 设计的时候,加入一个正则项。正则项使用余弦距离惩罚三个生成器生成样本的一致性。

MRGAN 则添加了一个判别器来惩罚生成样本的 mode collapse 问题。具体结构如下:

万字长文解读GAN:从基本概念、原理到实际应用

输入样本 x 通过一个 Encoder 编码为隐变量 E(x),然后隐变量被 Generator 重构,训练时,Loss 有三个。D和 R(重构误差)用于指导生成 real-like 的样本。而 D则对 E(x) 和 z 生成的样本进行判别,显然二者生成样本都是 fake samples,所以这个判别器主要用于判断生成的样本是否具有多样性,即是否出现 mode collapse。

1.6.3 Mini-batch Discrimination

Mini-batch discrimination 在判别器的中间层建立一个 mini-batch layer 用于计算基于 L1 距离的样本统计量,通过建立该统计量去判别一个 batch 内某个样本与其他样本有多接近。这个信息可以被判别器利用到,从而甄别出哪些缺乏多样性的样本。对生成器而言,则要试图生成具有多样性的样本。

2. 关于 GAN 隐空间的理解

隐空间是数据的一种压缩表示的空间。通常来说,我们直接在数据空间对图像进行修改是不现实的,因为图像属性位于高维空间中的流形中。但是在隐空间,由于每一个隐变量代表了某个具体的属性,所以这是可行的。

在这部分,我们会探讨 GAN 是如何处理隐空间及其属性的,此外还将探讨变分方法如何结合到 GAN 的框架中。

2.1 隐空间分解

GAN 的输入隐变量 z 是非结构化的,我们不知道隐变量中的每一位数分别控制着什么属性。因此有学者提出,将隐变量分解为一个条件变量 c 和标准输入隐变量 z。具体包括有监督的方法和无监督的方法。

2.1.1 有监督方法

典型的有监督方法有 CGAN,ACGAN。

CGAN 将随机噪声 z 和类别标签 c 作为生成器的输入,判别器则将生成的样本/真实样本与类别标签作为输入。以此学习标签和图片之间的关联性。

ACGAN 将随机噪声 和类别标签 作为生成器的输入,判别器则将生成的样本/真实样本输入,且回归出图片的类别标签。以此学习标签和图片之间的关联性。二者结构如下 (左边为 CGAN,右边为 ACGAN):

万字长文解读GAN:从基本概念、原理到实际应用

2.1.2 无监督方法

相比于有监督方法,无监督方法不使用任何标签信息。因此,无监督方法需要对隐空间进行解耦得到有意义的特征表示。

InfoGAN 对把输入噪声分解为隐变量 z 和条件变量 c(训练时,条件变量 c 从均匀分布采样而来。),二者被一起送入生成器。在训练过程中通过最大化 c 和 G(z, c) 的互信息 I(c,G(z,c)) 以实现变量解耦( 万字长文解读GAN:从基本概念、原理到实际应用 的互信息表示 c 里面关于 G(z,c) 的信息有多少,如果最大化互信息 万字长文解读GAN:从基本概念、原理到实际应用 ,也就是最大化生成结果和条件变量 c 的关联性)。模型结构和 CGAN 基本一致,除了 Loss 多了一项最大互信息。具体如下 [10]:

万字长文解读GAN:从基本概念、原理到实际应用

从上面分析可以看出,InfoGAN 只是实现了信息的解耦,至于条件变量 c 每一个值的具体含义是什么,我们无法控制。于是 ss-InfoGAN 出现了,ss-InfoGAN 采用半监督学习方法,把条件变量 c 分成两部分 万字长文解读GAN:从基本概念、原理到实际应用 ,c则利用标签像 CGAN 一样学习,则像 InfoGAN 一样学习。

2.2 GAN 与 VAE 的结合

GAN 相比于 VAE 可以生成清晰的图像,但是却容易出现 mode collapse 问题。VAE 由于鼓励重构所有样本,所以不会出现 mode collapse 问题。

一个典型结合二者的工作是 VAEGAN,结构很像前文提及的 MRGAN,具体如下:

万字长文解读GAN:从基本概念、原理到实际应用

上述模型的 Loss 包括三个部分,分别是判别器某一层特征的重构误差,VAE 的 Loss,GAN 的 Loss。

2.3 GAN 模型总结

前面两节介绍了各种各样的 GAN 模型,这些模型大都是围绕着 GAN 的两大常见问题:模式崩溃,以及训练崩溃来设计的。下表总结了这些模型,读者可以根据下表回顾对照:

万字长文解读GAN:从基本概念、原理到实际应用

3. GAN 的应用

由于 GAN 在生成样本过程成不需要显式建模任何数据分布就可以生成 real-like 的样本,所以 GAN 在图像,文本,语音等诸多领域都有广泛的应用。下表总结了 GAN 在各个方面的应用,后文会这些算法做相应介绍。

万字长文解读GAN:从基本概念、原理到实际应用

3.1 图像

3.1.1 图像翻译

所谓图像翻译,指从一副(源域)图像到另一副(目标域)图像的转换。可以类比机器翻译,一种语言转换为另一种语言。翻译过程中会保持源域图像内容不变,但是风格或者一些其他属性变成目标域。

Paired two domain> 3.1.2 超分辨

SRGAN 中使用 GAN 和感知损失生成细节丰富的图像。感知损失重点关注中间特征层的误差,而不是输出结果的逐像素误差。避免了生成的高分辨图像缺乏纹理细节信息问题。

3.1.3 目标检测

得益于 GAN 在超分辨中的应用,针对小目标检测问题,可以理由 GAN 生成小目标的高分辨率图像从而提高目标检测精度

3.1.4 图像联合分布学习

大部分 GAN 都是学习单一域的数据分布,CoupledGAN 则提出一种部分权重共享的网络,使用无监督方法来学习多个域图像的联合分布。具体结构如下 [11]:

万字长文解读GAN:从基本概念、原理到实际应用

如上图所示,CoupledGAN 使用两个 GAN 网络。生成器前半部分权重共享,目的在于编码两个域高层的,共有信息,后半部分没有进行共享,则是为了各自编码各自域的数据。判别器前半部分不共享,后半部分用于提取高层特征共享二者权重。对于训练好的网络,输入一个随机噪声,输出两张不同域的图片。

值得注意的是,上述模型学习的是联合分布 P(x,y),如果使用两个单独的 GAN 分别取训练,那么学习到的就是边际分布 P(x) 和 P(y)。通常情况下, 万字长文解读GAN:从基本概念、原理到实际应用

3.1.5 视频生成

通常来说,视频有相对静止的背景和运动的前景组成。VideoGAN 使用一个两阶段的生成器,3D CNN 生成器生成运动前景,2D CNN 生成器生成静止的背景。Pose GAN 则使用 VAE 和 GAN 生成视频,首先,VAE 结合当前帧的姿态和过去的姿态特征预测下一帧的运动信息,然后 3D CNN 使用运动信息生成后续视频帧。Motion and Content GAN(MoCoGAN) 则提出在隐空间对运动部分和内容部分进行分离,使用 RNN 去建模运动部分。

3.2 序列生成

相比于 GAN 在图像领域的应用,GAN 在文本,语音领域的应用要少很多。主要原因有两个:

为了解决上述问题,强化学习中的策略梯度下降(Policy gredient descent)被引入到 GAN 中的序列生成问题。

3.2.1 音乐生成

RNN-GAN 使用 LSTM 作为生成器和判别器,直接生成整个音频序列。然而,正如上面提到的,音乐当做包括歌词和音符,对于这种离散数据生成问题直接使用 GAN 存在很多问题,特别是生成的数据缺乏局部一致性。

相比之下,SeqGAN 把生成器的输出作为一个智能体 (agent) 的策略,而判别器的输出作为奖励 (reward),使用策略梯度下降来训练模型。ORGAN 则在 SeqGAN 的基础上,针对具体的目标设定了一个特定目标函数。

3.2.2 语言和语音

VAW-GAN(Variational autoencoding Wasserstein GAN) 结合 VAE 和 WGAN 实现了一个语音转换系统。编码器编码语音信号的内容,解码器则用于重建音色。由于 VAE 容易导致生成结果过于平滑,所以此处使用 WGAN 来生成更加清晰的语音信号。

3.3 半监督学习

图像数据的标签获得需要大量的人工标注,这个过程费时费力。

3.3.1 利用判别器进行半监督学习

基于 GAN 的半监督学习方法 [12] 提出了一种利用无标签数据的方法。实现方法和原始 GAN 基本一样,具体框架如下 [13]:

万字长文解读GAN:从基本概念、原理到实际应用

相比于原始 GAN,主要区别在于判别器输出一个 K+1 的类别信息(生成的样本为第 K+1 类)。对于判别器,其 Loss 包括两部分,一个是监督学习损失(只需要判断样本真假),另一个是无监督学习损失(判断样本类别)。生成器则只需要尽量生成逼真的样本即可。训练完成后,判别器就可以作为一个分类模型去分类。

从直观上来看,生成的样本主要在于辅助分类器学会区分真实的数据空间在哪里。

3.2.2 使用辅助分类器的半监督学习

上面提及的利用判别器进行半监督学习的模型存在一个问题。判别器既要学习区分正负样本,也要学习预测标签。二者目标不一致,容易导致二者都达不到最优。一个直观的想法就把预测标签和区分正负样本分开。Triple-GAN 就是这么做的 [14]:

万字长文解读GAN:从基本概念、原理到实际应用

万字长文解读GAN:从基本概念、原理到实际应用 分别表示生成的数据,有标签的数据,无标签的数据。CE 表示交叉熵损失。

3.4 域适应

域适应是一个迁移学习里面的概念。简单说来,我们定义源数据域分布为 Ds(x,y),目标数据域分布为D(x,y)。对于源域数据,我们有许多标签,但是对于目标域的数据没有标签。我们希望能通过源域的有标签数据和目标域的无标签数据学习一个模型,在目标域泛化的很好。迁移学习的「迁移」二字指的是源域数据分布向目标域数据分布的迁移。

GAN 用于迁移学习时,核心思想在于使用生成器把源域数据特征转换成目标域数据特征,而判别器则尽可能区分真实数据和生成数据特征。以下是两个把 GAN 应用于迁移学习的例子 DANN 和 ARDA:

万字长文解读GAN:从基本概念、原理到实际应用

以上图左边的 DANN 为例,I,I分别代表源域数据,目标域的数据,y表示源域数据的标签。F,F表示源域特征,目标域特征。DANN 中,生成器用于提取特征,并使得提取的特征难以被判别器区分是源域数据特征还是目标域数据特征。

在行人重识别领域,有许多基于 CycleGAN 的迁移学习以进行数据增广的应用。行人重识别问题一个难点在于不同摄像头下拍摄的人物环境,角度差别非常大,导致存在较大的 Domain gap。因此,可以考虑使用 GAN 来产生不同摄像头下的数据进行数据增广。[15] 中提出了一个 cycleGAN 用于数据增广的方法。具体模型结构如下:

万字长文解读GAN:从基本概念、原理到实际应用

对于每一对摄像头都训练一个 cycleGAN,这样就可以实现将一个摄像头下的数据转换成另一个摄像头下的数据,但是内容(人物)保持不变。

3.5 其他应用

GAN 的变体繁多,应用非常广泛,在一写非机器学习领域也有应用,以下是一些例子。

3.5.1 医学图像分割

[16] 提出了一种 segmentor-critic 结构用于分割医学图像。segmentor 类似于 GAN 中的生成器用于生成分割图像,critic 则最大化生成的分割图像和 ground truth 之间的距离。此外,DI2IN 使用 GAN 分割 3D CT 图像,SCAN 使用 GAN 用于分割 X 射线图像。

3.5.2 图片隐写

隐写指的是把秘密信息隐藏到非秘容器,比如图片中。隐写分析器则用于判别容器是否含有秘密信息。一些研究尝试使用 GAN 的生成器生成带有隐写信息的图片,判别器则有两个,一个用于判别图片是否是真实图片,另一个则判别图片是否具有秘密信息 [17]。

3.6.3 连续学习

连续学习目的在于解决多个任务,且在学习过程中不断积累新知识。连续学习中存在一个突出的问题就是「知识遗忘」。[18] 中使用 GAN 的生成器作为一个 scholars model,生成器不断使用以往知识进行训练,solver 则给出答案,以此避免「知识遗忘」问题。

4. 讨论

在第一,二部分我们讨论了 GAN 及其变体,第三部分讨论了 GAN 的应用。下表总结了比较有名的一些 GAN 的模型结构及其施加的额外约束。

万字长文解读GAN:从基本概念、原理到实际应用

前面都是对于 GAN 的微观层面的探讨。接下来,我们会站在一个宏观的视角来讨论 GAN。

4.1 GAN 的评价

GAN 的评价方法多种多样,现有的 example-based(顾名思义,基于样本层面做评价)方法,均是对生成样本与真实样本提取特征,然后在特征空间做距离度量。具体框架如下:

万字长文解读GAN:从基本概念、原理到实际应用

关于本小节的符号对照关系如下:

下面分别对常见的评价指标进行一一介绍:

4.1.1 Inception Score

对于一个在 ImageNet 训练良好的 GAN,其生成的样本丢给 Inception 网络进行测试的时候,得到的判别概率应该具有如下特性:

因此,可以设计如下指标: 万字长文解读GAN:从基本概念、原理到实际应用 根据前面分析,如果是一个训练良好的 GAN, 万字长文解读GAN:从基本概念、原理到实际应用 趋近于脉冲分布, 万字长文解读GAN:从基本概念、原理到实际应用 趋近于均匀分布。二者 KL 散度会很大。Inception Score 自然就高。实际实验表明,Inception Score 和人的主观判别趋向一致。IS 的计算没有用到真实数据,具体值取决于模型 M 的选择。

特点:可以一定程度上衡量生成样本的多样性和准确性,但是无法检测过拟合。Mode Score 也是如此。不推荐在和 ImageNet 数据集差别比较大的数据上使用。

4.1.2 Mode Score

Mode Score 作为 Inception Score 的改进版本,添加了关于生成样本和真实样本预测的概率分布相似性度量一项。具体公式如下:

万字长文解读GAN:从基本概念、原理到实际应用

4.1.3 Kernel MMD (Maximum Mean Discrepancy)

计算公式如下:

万字长文解读GAN:从基本概念、原理到实际应用

对于 Kernel MMD 值的计算,首先需要选择一个核函数 k,这个核函数把样本映射到再生希尔伯特空间 (Reproducing Kernel Hilbert Space, RKHS),RKHS 相比于欧几里得空间有许多优点,对于函数内积的计算是完备的。将上述公式展开即可得到下面的计算公式:

万字长文解读GAN:从基本概念、原理到实际应用

MMD 值越小,两个分布越接近。

特点:可以一定程度上衡量模型生成图像的优劣性,计算代价小。推荐使用。

4.1.4 Wasserstein distance

Wasserstein distance 在最优传输问题中通常也叫做推土机距离。这个距离的介绍在 WGAN 中有详细讨论。公式如下:

万字长文解读GAN:从基本概念、原理到实际应用

Wasserstein distance 可以衡量两个分布之间的相似性。距离越小,分布越相似。

特点:如果特征空间选择合适,会有一定的效果。但是计算复杂度为 O(n^3) 太高

4.1.5 Fréchet Inception Distance (FID)

FID 距离计算真实样本,生成样本在特征空间之间的距离。首先利用 Inception 网络来提取特征,然后使用高斯模型对特征空间进行建模。根据高斯模型的均值和协方差来进行距离计算。具体公式如下:

万字长文解读GAN:从基本概念、原理到实际应用

万字长文解读GAN:从基本概念、原理到实际应用 分别代表协方差和均值。

特点:尽管只计算了特征空间的前两阶矩,但是鲁棒,且计算高效。

4.1.6 1-Nearest Neighbor classifier

使用留一法,结合 1-NN 分类器(别的也行)计算真实图片,生成图像的精度。如果二者接近,则精度接近 50%,否则接近 0%。对于 GAN 的评价问题,作者分别用正样本的分类精度,生成样本的分类精度去衡量生成样本的真实性,多样性。

特点:理想的度量指标,且可以检测过拟合。

4.1.7 其他评价方法

AIS,KDE 方法也可以用于评价 GAN,但这些方法不是 model agnostic metrics。也就是说,这些评价指标的计算无法只利用:生成的样本,真实样本来计算。

4.1.8 总结

实际实验发现,MMD 和 1-NN two-sample test 是最为合适的评价指标,这两个指标可以较好的区分:真实样本和生成的样本, mode collapsing。且计算高效。

总体说来,GAN 的学习是一个无监督学习过程,所以很难找到一个比较客观的,可量化的评估指标。有许多指标在数值上虽然高,但是生成效果却未必好。总之,GAN 的评价目前依然是一个开放性的问题。

4.2 GAN 与强化学习的关系

强化学习的目标是对于一个智能体,给定状态 s,去选择一个最佳的行为 a(action)。通常的可以定义一个价值函数 Q(s,a) 来衡量,对于状态 s,采取行动 a 的回报是 Q(s,a),显然,我们希望最大化这个回报值。对于很多复杂的问题,我们是很难定义这个价值函数 Q(s,a) 的,就像我们很难定义 GAN 生成的图片到底有多好一样。

说到这里,大家可能反应过来了。GAN 生成的图片好不好,我确实找不到一个合适的指标,那我学习一个判别器去判断一下生成图片和真实图片的距离不就好了吗。强化学习里面的价值函数 Q(s,a) 难以定义,那直接用个神经网络去学习它就好了。典型的模型有 InverseRL,GAIL 等等

4.3 GAN 的优缺点

4.3.1 优点

GAN 的优点在开头已有所介绍。这里再总结一下:

4.3.2 缺点

GAN 的缺点在前文也有详细讨论,主要问题在于:

4.4 未来的研究方向

有同学希望给出 PDF,这里转成了 PDF 放到了 github,需要的同学自行下载:

Morde-kaiser/LearningNotesgithub.com

[1]: Hong, Yongjun, et al. "How Generative Adversarial Networks and its variants Work: An Overview of GAN."

[3]

[5]

[6]

版权文章,未经授权禁止转载。详情见 转载须知 。

万字长文解读GAN:从基本概念、原理到实际应用

全局中部横幅
大学申请规划服务

DBF留学求职咨询公司提供全方位的大学申请和求职规划服务,为马来西亚学生申请理想大学,规划完美职业道路。我们的资深顾问来自世界名校和顶尖企业,为你提供个性化的专业指导。

潍坊净禾环保科技有限公司

潍坊净禾环保科技有限公司主营销售产品有各种高效复合型、正压型二氧化氯发生器、壁挂式二氧化氯发生器、硫酸法和电解法二氧化氯发生器等,产品型号多,选择性大,受到广大用户认可,产品销往全国各地。

旋转编码器

威海艾迪科电子科技股份有限公司(400-0631-226)二十年专注编码器研发生产,产品覆盖行业广,艾迪科编码器以可靠精准的品质准确传递位置、角度信号,协议齐全,应用于纺织机械、工程机械、高端机器人、伺服电机等领域的自动化控制。

豪迈木门

豪迈木门创立于1991年是一家集室内套装门的设计、生产、销售、售后为一体的大型木门生产厂家,是“中国木门十大品牌”之一。提供实木门,烤漆门,室内套装门等系列木门的定制生产。热线:400-6070-399

变压器生产厂家

东莞市景创电子有限公司,网址:www.dgjce.com,公司主要生产各种高、低频变压器、电感、线圈、滤波器及触发线圈等产品。公司年产各种变压器、线圈可达1000万只以上。公司拥有先进的设备,如:全自动绕线机、1062综合测试仪、真空含浸机等,所有生产、测试设备均从知名的专业厂家购进。目前公司生产的各式变压器、电感、线圈,广泛应用于通讯、UPS逆变电源、开关电源、闪光灯,频闪灯等各领域!产品品质及价格深受客户的好评。

微型光谱仪

上海复享光学股份有限公司是中国先进的光谱分析与制程检测供应商,在微纳光电子与生命科学等领域,为客户提供优质的光谱解决方案。

上海酥明玻璃制品公司

专门从事玻璃装饰8年的公司,一直专注于玻璃装饰行业的服务与发展,与各大城市的建筑性公司建立了良好合作关系,主要服务范围有:酒店、KTV、酒吧、会所、办公楼等

上海江慎幕墙装饰集团有限公司

上海江慎幕墙装饰集团有限公司前身为上海江慎建筑装饰工程有限公司成立于2017年3月,公司注册资金2222.22万元,由在行业内深耕细作多年的专家、资深人士、大企高管共同发起,创立的公司。

七十二創設計機構

资深专业品牌酒店设计20年,执着于原创设计,深耕于中国传统文化,精通于传统风水堪舆学的场景应用 关注于人类生存环境,致力于将低碳、可再生、可循环的设计理念运用在每一个项目中,为人类的未来尽微博之力 ...

简喵

简喵(原网喵、0013网咖)是一款基于万象网管的手机订座、充值APP。在方便用户一键订座、信用卡充值网费的同时,增加网吧上座率。网吧还可以根据会员末次登陆时间一对一发送优惠券,真正做到流失会员一键召回,为网吧提供强有力营销平台

武汉金档科技有限公司

提供档案数字化加工服务,档案扫描录入服务,档案整理业务,金档档案管理系统,档案管理软件研发

全局底部横幅