1. 研究目的与意义
人工神经网络(Artificial neural network)是一种模拟人脑神经元细胞的网络结构和功能,运用大量的处理部件,由人工方式建立起来的自适应非线性动态系统。
它是在生物神经网络研究的基础上建立起来的,能在一定程度上模仿生物神经系统的智慧和功能,因此广泛应用于信息处理和模式识别等领域。
生成对抗网络(Generative adversarial networks)属于人工神经网络的范畴,是深度学习领域的一个重要生成模型,即两个网络(生成器和鉴别器)在同一时间训练并且在极小化极大算法(minimax)中进行竞争。
2. 研究内容和预期目标
本课题拟采用机器学习框架Pytorch搭建GAN,通过香港中文大学开放提供的celebA数据集,对网络进行多代训练,实现真假图像的区分以及虚假图像的生成。最后会针对不同的损失函数,比较模型的训练速率,成像(测试)效果,loss趋势等,以使网络模型达到趋于最佳的状态。
对于不同的面部属性作出想要的编辑则涉及到多分类问题,则采用不同的损失函数,激活函数,优化算法,或者只是简单地调整网络结构都将影响网络模型地最终效果。本课题将采用均值损失,均方损失,交叉熵损失作为不同的损失函数,来探究该网络模型在面对13分类问题时的最终优劣效果。
论文主要的撰写内容为:①网络的整体结构;②训练过程中可能出现的问题及解决方案;③不同损失函数下不同模型的效果对比;④网络模型训练过程中loss趋势解析。
3. 国内外研究现状
自1956年McCarthy提出“人工智能”一词以来,人工智能的发展几经波折。而最近几年,得益于数据量指数级的增长以及计算机运算力的大幅度提升,人工智能的发展又一次达到了巅峰阶段。虽然人工智能最近几年得到了快速发展,但人们仍然普遍认为,机器离真正的智能还有很大的距离,机器永远不可能替代人类。而自从Ian Goodfellow在2014年10月提出了生成式对抗网络(Generative adversarial networks,GAN)之后,人们的思想就发生了很大的变化。生成式对抗网络GAN主要采用无监督的学习方式,自动从源数据中进行学习,在不需要人工对数据集进行标注的情况下就可以产生令人惊叹的效果,從而使机器真正实现了所谓的“智能”。
目前,不收敛问题是GAN最主要的一个问题。在实际训练中,往往需要设置很多的参数,去平衡G和D的能力,才能使得它最终达到收敛。不收敛问题主要有两种表现。第一,梯度消失问题,原始GAN使用分类误差作为真实分布与生成分布相近度的度量,这种方法在最优判别器的条件下,生成器的损失函数等价于最小化真实分布与生成分布之间的JS散度。然而,已被证明,当真实分布与生成分布的重叠区域可忽略时,JS散度为一常数,此时生成器获得的梯度为0。第二,模式崩塌问题,也就是说生成器可能生成同样的数据而不是多样的数据。这个问题主要原因是,在优化时使用梯度下降的方法,实际上不区分min-max和max-min,这导致生成器希望多生成一些重复但是很安全的样本。而我们希望生成样本尽量与真实样本的多样性一致。这些问题可以通过设计更好的网络结构、差异的度量方式或者一些训练的trick来解决,一般都会结合使用。例如WGAN就是通过使用Wasserstein距离来代替JS散度,同时使用了权值裁剪的trick,实现了很好的效果。今后如何将众多的trick技巧系统化、形式化和工具化,是GAN能否更加深入普及的关键一步。
2017年,Martin Arjovsky等人发表《Towards Principled Methods for Training Generative Adversarial Networks》没有介绍任何算法和方法,而是充分解释了GAN训练的动态过程。一个多星期后发表《Wasserstein GAN》,彻底解决GAN训练不稳定的问题,不再需要小心平衡生成器和判别器的训练程度,基本解决了collapse mode的问题,确保了生成样本的多样性 ,训练过程中终于有一个像交叉熵、准确率这样的数值来指示训练的进程,这个数值越小代表GAN训练得越好,代表生成器产生的图像质量越高,以上一切好处不需要精心设计的网络架构,最简单的多层全连接网络就可以做到。具体做法:1)判别器最后一层去掉sigmoid。2)生成器和判别器的loss不取log。3)每次更新判别器的参数之后把它们的绝对值截断到不超过一个固定常数c。4)不要用基于动量的优化算法(包括momentum和Adam),推荐使用RMSProp。
4. 计划与进度安排
本课题采用机器学习框架Pytorch来完成设计,研究计划如下:
①图像预先处理将数据集中图像进行必要的裁剪;
②搭建生成对抗网络,加入合适的函数模块使图像张量数据能更好地被模型拆分,理解以致收敛,加入一些预防措施例如梯度惩罚来减少梯度失控的风险;
5. 参考文献
[1]Ishaan Gulrajani, Faruk Ahmed, Martin Arjovsky, Vincent Dumoulin, Aaron Courville. Improved Training of Wasserstein GANs[J].arXiv,2017
[2]Xudong Mao, Qing Li, Haoran Xie, Raymond Y.K. Lau, Zhen Wang, Stephen Paul Smolley. Least Squares Generative Adversarial Networks[J].arXiv,2016
[3]Takeru Miyato, Toshiki Kataoka, Masanori Koyama, Yuichi Yoshida. Spectral Normalization for Generative Adversarial Networks[J].arXiv,2018
以上是毕业论文开题报告,课题毕业论文、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。