加入收藏 | 设为首页 | 会员中心 | 我要投稿 河北网 (https://www.hebeiwang.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 建站 > 正文

关于GAN的魂灵七问

发布时间:2019-04-14 08:04:20 所属栏目:建站 来源:机器之心编译
导读:天生反抗收集在已往一年还是研究重点,我们不只看到可以天生高判别率(10241024)图像的模子,还可以看到那些以假乱真的天生图像。另外,我们还很欢快能看到一些新的天生模子,它们能天生与 GAN 相媲美的图像,其首要代表就是流模子 Glow。 从 DeepMind 提出
副问题[/!--empirenews.page--]

天生反抗收集在已往一年还是研究重点,我们不只看到可以天生高判别率(1024×1024)图像的模子,还可以看到那些以假乱真的天生图像。另外,我们还很欢快能看到一些新的天生模子,它们能天生与 GAN 相媲美的图像,其首要代表就是流模子 Glow。

关于GAN的魂灵七问

从 DeepMind 提出的 BigGAN,到英伟达的 Style-based Generator,它们天生的图像质量都令人赞叹。尽量尚有许多题目没有办理,但图像天生已经能骗过一样平常人类了。不信的话,你可以试试区分天生的图像与真实图像。

https://v.qq.com/x/page/j08127vm36n.html

看了上面 Style-based Generator 的天生结果,很明明感受天生反抗收集在已往 2 年中已经取得了明显的盼望。着实,从 16 年到 18 年图像合成的质量越来越高,看论文的速率都快赶不上 GAN 的成长了:

可是在另一些方面,GAN 的晋升并不是那么明显。譬喻,关于怎样评估 GAN 的结果,此刻仍有许多分歧。由于今朝图像合成基准已经很是多了,以是反思子规模的研究方针显得更故意义。

在这篇文章中,谷歌大脑团队的 Augustus Odena 就针对 GAN 的七大开放性题目作出了先容。

  • 题目 1:如安在 GAN 和其余天生模子之间举办挑选?
  • 题目 2:GAN 能建模哪些漫衍?
  • 题目 3:除了图像合成外,GAN 还能用于哪些处所?
  • 题目 4:GAN 的全局收敛性怎样?实习动态进程又是奈何的?
  • 题目 5:我们该怎样评估 GAN 的优劣,什么时辰又该行使 GAN 这种天生模子?
  • 题目 6:怎样扩展实习 GAN 的批量巨细?
  • 题目 7:GAN 和反抗样本之间有什么相关?

Augustus 对每一个题目都做了很具体的接头,包罗题目配景、题目内容以及怎样办理等等。这篇文章宣布在 Distill 上,呆板之心扼要对六大题目做了先容,更具体的内容与相干引用文献可阅读原文。

谷歌大脑和其他许多研究者都在致力于办理这些 GAN 的开放性研究题目。这篇文章也引用了迩来很是多的天生反抗收集研究,因此并不能八面见光地描写细节,以是读者有必然的基本、对这些题目有必然的直观相识就最好了。

题目1:如安在 GAN 和其余天生模子之间举办挑选?

除了 GAN,其它两种天生模子此刻也很风行:流模子和自回归模子。大致来说,流模子将一堆可逆调动应用于先验样本,以计较视察值的准确对数似然性。另一方面,自回归模子将视察值的漫衍解析为前提漫衍,并一次处理赏罚视察值的一个组件(对付图像,也许是一次处理赏罚一个像素)。最近的研究表白,这些模子具有差异的机能特点和衡量。精确描写这些衡量并确定它们是否为模子的固有特征是一个风趣的开放性题目。

详细来说,我们先暂且把重点放在 GAN 和流模子之间计较本钱的差别上,实习 GAN 和流模子的计较本钱之间好像存在庞大差别。GLOW 模子是用 40 个 GPU 花两周实习的,以天生 256x256 的绅士面部图像,其行使的参数为 2 亿。对比之下,自回归 GAN 是在相似的面部数据集上用 8 个 GPU 花 4 天实习的,以天生 1024x1024 的图像,它行使了 4600 万参数。流模子或许必要 17 倍多的 GPU 天数和 4 倍多的参数来天生像素少 16 倍的图像。

为什么流模子服从更低?有两个也许的缘故起因:起首,最大似然实习也许比反抗实习的计较难度更大。其次,归一化流也许无法有用代表特定函数。论文《Parallel WaveNet: Fast High-Fidelity Speech Synthesis》第 6.1 节对表达性做了一些小尝试,但今朝我们还没看到任何对这个题目的深入说明。

前面已经接头过了 GAN 和流模子之间的衡量,那自回归模子呢?究竟证明,自回归模子可以看做不行并行化的流模子(由于它们都可逆)。

因此,GAN 是并行且有用的,但不行逆;流模子是可逆且并行的,但较量低效;自回归模子是可逆且有用的,但不行并行化。

关于GAN的魂灵七问

由此引出第一个开放性题目:

办理这个题目的要领之一是研究更多由多种模子殽杂而成的模子。这种要领已经用于殽杂 GAN/流模子研究,但它如故没有被充实开拓。

我们也不确定最大似然实习是否必然比 GAN 实习更难。简直,在 GAN 逊?ю失下,将 zero mass 置于实习数据点上没有被明晰榨取,但面临这种环境,强盛的鉴别器简直会比天生器做得更好。不外,看起来 GAN 确其实实践中进修低支持度的漫衍。

最终,我们猜疑流模子每个参数的表达不如恣意解码器函数,并且这在特定假设下是可以证明的。

GAN 能建模哪些漫衍?

大大都 GAN 都偏重于图像合成,详细而言,研究者会在一些尺度图像数据集上实习 GAN,譬喻 MNIST、CIFAR-10、STL-10、CelebA 和 Imagenet 等。这些数据集也是有难易之分的,并且天生的结果也有好有坏。履历表白,CelebA 上最先辈的图像合成模子天生的图像好像比 Imagenet 上最先辈的图像合成模子天生的图像更有说服力。

与任何科学一样,我们也但愿有一个简朴的理论来表明尝试调查。抱负环境下,我们可以查察数据集,并执行一些计较而不现实实习天生模子,然后就可以判定「这个数据集对付 GAN 来说较量轻易建模,可是对付 VAE 来说较量难」。这些都是履历领略,不外今朝在这个规模上也有一些研究。由此引出下面这个题目:

(编辑:河北网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读