内容简介:在第二步中,我们定义并训练了判别器在这部分,作者会参考论文对于部分图片
在第二步中,我们定义并训练了判别器 D(x) 和生成器 G(z) ,那接下来就是如何利用 DCGAN 网络模型来完成图片的修复工作了。
在这部分,作者会参考论文 "Semantic Image Inpainting with Perceptual and Contextual Losses" 提出的方法。
对于部分图片 y ,对于缺失的像素部分采用最大化 D(y) 这种看起来合理的做法并不成功,它会导致生成一些既不属于真实数据分布,也属于生成数据分布的像素值。如下图所示,我们需要一种合理的将 y 映射到生成数据分布上。
[ML-Heavy] 损失函数
首先我们先定义几个符号来用于图像修复。用 M 表示一个二值的掩码(Mask),即只有 0 或者是 1 的数值。其中 1 数值表示图片中要保留的部分,而 0 表示图片中需要修复的区域。定义好这个 Mask 后,接下来就是定义如何通过给定一个 Mask 来修复一张图片 y ,具体的方法就是让 y 和 M 的像素对应相乘,这种两个矩阵对应像素的方法叫做 哈大马乘积 ,并且表示为 M ⊙ y ,它们的乘积结果会得到图片中原始部分,如下图所示:
接下来,假设我们从生成器 G 的生成结果找到一张图片,如下图公式所示,第二项表示的是 DCGAN 生成的修复部分:
根据上述公式,我们知道最重要的就是第二项生成部分,也就是需要实现很好修复图片缺失区域的做法。为了实现这个目的,这就需要回顾在第一步提出的两个重要的信息,上下文和感知信息。而这两个信息的获取主要是通过损失函数来实现。损失函数越小,表示生成的 G(z) 越适合待修复的区域。
Contextual Loss
为了保证输入图片相同的上下文信息,需要让输入图片 y (可以理解为标签)中已知的像素和对应在 G(z) 中的像素尽可能相似,因此需要对产生不相似像素的 G(z) 做出惩罚。该损失函数如下所示,采用的是 L1 正则化方法:
这里还可以选择采用 L2 正则化方法,但论文中通过实验证明了 L1 正则化的效果更好。
理想的情况是 y 和 G(z) 的所有像素值都是相同的,也就是说它们是完全相同的图片,这也就让上述损失函数值为0
Perceptual Loss
为了让修复后的图片看起来非常逼真,我们需要让判别器 D 具备正确分辨出真实图片的能力。对应的损失函数如下所示:
因此,最终的损失函数如下所示:
这里 λ 是一个超参数,用于控制两个函数的各自重要性。
另外,论文还采用 泊松混合(poisson blending) 方法来平滑重构后的图片。
[ML-Heavy] TensorFlow 实现 DCGANs 模型来实现图像修复
代码实现的项目地址如下:
首先需要新添加的变量是表示用于修复的 mask,如下所示,其大小和输入图片一样
self.mask = tf.placeholder(tf.float32, [None] + self.image_shape, name='mask') 复制代码
对于最小化损失函数的方法是采用常用的梯度下降方法,而在 TensorFlow 中已经实现了自动微分的方法,因此只需要添加待实现的损失函数代码即可。添加的代码如下所示:
self.contextual_loss = tf.reduce_sum(
tf.contrib.layers.flatten(
tf.abs(tf.mul(self.mask, self.G) - tf.mul(self.mask, self.images))), 1)
self.perceptual_loss = self.g_loss
self.complete_loss = self.contextual_loss + self.lam*self.perceptual_loss
self.grad_complete_loss = tf.gradients(self.complete_loss, self.z)
复制代码
接着,就是定义一个 mask。这里作者实现的是位置在图片中心部分的 mask,可以根据需求来添加需要的任意随机位置的 mask,实际上代码中实现了多种 mask
if config.maskType == 'center':
scale = 0.25
assert(scale <= 0.5)
mask = np.ones(self.image_shape)
l = int(self.image_size*scale)
u = int(self.image_size*(1.0-scale))
mask[l:u, l:u, :] = 0.0
复制代码
因为采用梯度下降,所以采用一个 mini-batch 的带有动量的映射梯度下降方法,将 z 映射到 [-1,1] 的范围。代码如下:
for idx in xrange(0, batch_idxs):
batch_images = ...
batch_mask = np.resize(mask, [self.batch_size] + self.image_shape)
zhats = np.random.uniform(-1, 1, size=(self.batch_size, self.z_dim))
v = 0
for i in xrange(config.nIter):
fd = {
self.z: zhats,
self.mask: batch_mask,
self.images: batch_images,
}
run = [self.complete_loss, self.grad_complete_loss, self.G]
loss, g, G_imgs = self.sess.run(run, feed_dict=fd)
# 映射梯度下降方法
v_prev = np.copy(v)
v = config.momentum*v - config.lr*g[0]
zhats += -config.momentum * v_prev + (1+config.momentum)*v
zhats = np.clip(zhats, -1, 1)
复制代码
修复你的图片
选择需要进行修复的图片,并放在文件夹 dcgan-completion.tensorflow/your-test-data/raw 下面,然后根据之前第二步的做法来对人脸图片进行对齐操作,然后将操作后的图片放到文件夹 dcgan-completion.tensorflow/your-test-data/aligned 。作者随机从数据集 LFW 中挑选图片进行测试,并且保证其 DCGAN 模型的训练集没有包含 LFW 中的人脸图片。
接着可以运行下列命令来进行修复工作了:
./complete.py ./data/your-test-data/aligned/* --outDir outputImages 复制代码
上面的代码会将修复图片结果保存在 --outDir 参数设置的输出文件夹下,接着可以采用 ImageMagick 工具来生成动图。这里因为动图太大,就只展示修复后的结果图片:
而原始的输入待修复图片如下:
小结
最后,再给出前两步的文章链接:
当然这个图片修复方法由于也是2016年提出的方法了,所以效果不算特别好,这两年其实已经新出了好多篇新的图片修复方法的论文,比如:
-
Deepfill 2018-- Generative Image Inpainting with Contextual Attention
-
Deepfillv2-- Free-Form Image Inpainting with Gated Convolution
-
2017CVPR-- High-resolution image inpainting using multi-scale neural patch synthesis
-
2018年的 NIPrus收录论文-- Image Inpainting via Generative Multi-column Convolutional Neural Networks
欢迎关注我的微信公众号--机器学习与计算机视觉,或者扫描下方的二维码,在后台留言,和我分享你的建议和看法,指正文章中可能存在的错误,大家一起交流,学习和进步!
我的个人博客和 CSDN 博客:
以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网
猜你喜欢:- GAN 学习系列(三):采用深度学习和 TensorFlow 实现图片修复(中)
- GAN 学习系列(三):采用深度学习和 TensorFlow 实现图片修复(下)
- 【译】Facebook如何通过工具学习自动修复Bug ?
- Tinker源码解析-代码修复和资源修复
- Ruby 2.5.1 正式发布,包含 bug 修复和安全修复
- struts2架构网站漏洞修复详情与利用漏洞修复方案
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
Google's PageRank and Beyond
Amy N. Langville、Carl D. Meyer / Princeton University Press / 2006-7-23 / USD 57.50
Why doesn't your home page appear on the first page of search results, even when you query your own name? How do other web pages always appear at the top? What creates these powerful rankings? And how......一起来看看 《Google's PageRank and Beyond》 这本书的介绍吧!