博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
CVPR 2018:阿里提出应用 LocalizedGAN 进行半监督训练
阅读量:6564 次
发布时间:2019-06-24

本文共 2566 字,大约阅读时间需要 8 分钟。

该工作由UCF齐国君教授领导的UCF MAPLE 实验室(Machine Perception and Learning)和阿里巴巴华先胜博士领导的城市大脑机器视觉研究组合作完成,并将发表在CVPR 2018上。

eb9418de10026fc31a35783da25991e6c36cca2d

Guo-Jun Qi, LihengZhang, Hao Hu, Marzieh Edraki, Jingdong Wang and Xian-Sheng Hua. Global versusLocalized Generative Adversarial Nets, in CVPR 2018. [pdf]

GAN和基于图模型的半监督机器学习的关系

GAN除了用来生成数据,我们认为一个非常重要作用是:我们第一次有了一个比较理想的工具,可以用来表示和描述数据流型(manifold)。之前,如果我们想表示流型,一般是借助于一个图模型(Graph)。在图模型里,我们用节点表示数据点,用边表示数据直接的相似性。有了Graph,我们可以定量计算数据点上函数的变化。比如,在分类问题中,我们感兴趣的函数是分类函数,输出的是数据点的标签。有了基于Graph的流型,我们就可以建立一个分类模型:它输出的分类标签在相似样本上具有最小的变化。这个就是一种平滑性的假设,是基于图的半监督方法的核心假设。

d1dc7143fb110fcb22e044a39e994a8ed9be56da

上图:基于图的流型表示和半监督分类。

尽管这种基于图的半监督方法取得了很大的成功,但是它的缺点也是很明显的。当数据点数量非常巨大的时候,构建这样一个Graph的代价会非常大。为了解决这个问题, Graph为我们提供了一个很好的基础。通过训练得到的生成器G(z),其实就是一个非常好的流型模型。这里z就是流型上的参数坐标,通过不断变化z,我们就可以在高维空间中划出一个流型结构。

有了这样一个流型和它的描述G,我们可以在数据流型上研究各种几何结构。比如切向量空间、曲率,进而去定义在流型上,沿着各个切向量,函数会如何变化等等。好了,这里GAN就和半监督学习联系起来了。以前我们是用Graph这种离散的结果去研究分类函数的变化,并通过最小化这种变化去得到平滑性假设。

现在,有了流型直接的参数化描述G(z),我们就能直接去刻画一个函数(比如分类问题中的分类器)在流型上的变化,进而去建立一个基于这种参数化流型的半监督分类理论,而非去借助基于图的流型模型。

具体来说,半监督图流型中,我们常用到Laplacian矩阵来做训练;现在,有了参数化的流型后,我们就可以直接定义Laplace-Beltrami算子,从而实现半监督的训练。下面是基于这个方法在一些数据集上得到的结果。更多的结果可以参考我们的论文“Global versus Localized Generative Adversarial Networks“。

03730e234f78b629fc43e3ffba6ebe473a59fca7

上表:在SVHN, CIFAR-10和CIFAR-100上的半监督学习效果。

用全局还是局部坐标来研究GAN?

这里,有个比较精细的问题。通常的GAN模型,得到的是一个全局的参数话模型:我们只有一个z变量去参数化整个流型。事实上,在数学上,这种整体的参数化王是不存在的,比如我们无法用一个参数坐标去覆盖整个球面。这时我们往往要借助于通过若干个局部的坐标系去覆盖整个流型。

同时,使用局部坐标系的另一个更加实际的好处是,我们给定一个目标数据点x后,整体坐标系G(z)要求我们必须知道对应的一个参数坐标z;而使用局部坐标系后,我们就直接可以在x附近去建立一个局部坐标系G(x,z)去研究流型周围的几何结构,而不用去解一个逆问题去去它对应的z了。这个极大地方便了我们处理流型上不同数据点。

3320680971b5073519c35db278ffc63b8033ade7

上图:流型的局部参数化表示。

沿着这个思路,我们可以利用参数化的局部坐标和它表示的流型来研究一系列问题。

1. 比较理论的研究可以专注于,有了这些局部参数表示,如何去定义出一整套黎曼流型的数学结构,比如局部的曲率,黎曼度量,和如果沿着流型去算测地线和两个数据点之间的测地距离。

2. 从应用的角度,给定了一个图像x,用局部表示G(x,z)可以对这个x在它的局部领域中做各种编辑操作或者控制图像的各种属性,从而可以帮助我们生成想要的图像;比如不同角度的人脸、人体姿态、物体,甚至不同风格、表现不同情感的图像等等。这在安防、内容生成、虚拟现实等领域都会有广泛的应用前景。

从几何角度研究Mode collapse问题

当然,从几何和流型参数化的角度还可以给出对GAN更深入的理解,比如对mode collapse问题。在GAN的相关研究中,mode collapse是一个被广泛关注的问题。有很多相关的论文在从不同角度来研究和解决这个问题。

而基于Localized GAN所揭示的几何方法,我们可以从流型局部崩溃的角度来

解释和避免GAN的modecollapse。具体来说,给定了一个z,当z发生变化的时候,对应的G(z)没有变化,那么在这个局部,GAN就发生了mode collapse,也就是不能产生不断连续变化的样本。这个现象从几何上来看,就是对应的流型在这个局部点处,沿着不同的切向量方向不再有变化。换言之,所有切向量不再彼此相互独立--某些切向量要么消失,要么相互之间变得线性相关,从而导致流型的维度在局部出现缺陷(dimensiondeficient)。

为了解决这个问题,最直接的是我们可以给流型的切向量加上一个正交约束(Orthonormalconstraint),从而避免这种局部的维度缺陷。下图是在CelebA 数据集上得到的结果。可以看到,通过对不同的切向量加上正交化的约束,我们可以在不同参数方向上成功地得到不同的变化。

0251b9baec1f31870d4bc0f36deda3422d0d61e4

上图:在给定输入图像的局部坐标系下对人脸的不同属性进行编辑。

值得注意的是,尽管我们是从局部GAN的角度推导和实现了对切向量的正交化约束,这个思路和方法同样适用于传统的整体GAN模型。我们只需要在训练整体GAN模型的同时,在每个训练数据样本或者一个batch的子集上也加上这个约束来求取相应的下降梯度就同样可以训练整体GAN模型;这个方向可以引申出未来的相关工作

原文发布时间为:2018-05-11

本文来自云栖社区合作伙伴新智元,了解相关信息可以关注“AI_era”。

原文链接:

转载地址:http://xlcjo.baihongyu.com/

你可能感兴趣的文章
SRE工程师到底是做什么的?
查看>>
腾讯信鸽海量移动推送服务是如何构建的
查看>>
我的2016总结
查看>>
对《Clojure in Action》第二版的书评与作者问答
查看>>
百度成立国内首个深度学习教育联盟,将制定行业标准
查看>>
Micronaut教程:如何使用基于JVM的框架构建微服务
查看>>
Eclipse与AndroidStudio快捷键对比
查看>>
检查IP是否可用的方法
查看>>
BFC的一些探究
查看>>
网易微专业之《前端开发工程师》学习笔记(1)
查看>>
记一次MySQL字符集冲突导致的报错
查看>>
jenkins 集成 docker tomcat 自动化测试脚本
查看>>
pt,px,rem和em之间区别总结
查看>>
浏览器同源策略以及跨域请求时可能遇到的问题
查看>>
自己开发的MarkDown在线编辑器越来越完善了,心里感到高兴。
查看>>
ContentObserver类的使用
查看>>
可想实现一个自己的简单jQuery库?(五)
查看>>
庖丁解牛迭代器,聊聊那些藏在幕后的秘密
查看>>
【LintCode: 3. 统计数字】算法题解析
查看>>
pycrypto加密文件
查看>>