Computer Science and Application
Vol. 13  No. 02 ( 2023 ), Article ID: 61248 , 11 pages
10.12677/CSA.2023.132019

基于空间注意力机制的快速生成对抗网络

吴天宝,徐芳

西南石油大学理学院,四川 成都

收稿日期:2023年1月6日;录用日期:2023年2月3日;发布日期:2023年2月13日

摘要

针对实际应用中数据量不足导致的图像生成质量低下以及模型收敛缓慢的问题,提出了一种基于注意力机制的快速生成对抗网络模型。模型引入简化的注意力机制模块后能够获取图像的全局信息。模型由带有注意力机制的残差模块配合跳层连接机制为主。同时,对抗学习使得模型生成的图像更加逼真。为了加快收敛速度,元数据作为模型的输入为模型提供基本图像的基本信息。实验结果表明,对比现有的模型,该模型在小数据集上不仅收敛速度更快,成像也更加逼真。在数据量足够的数据集上对比现有的模,能够生成质量非常接近的图像,并且大大缩短了收敛的时间,减少了占用的内存。

关键词

生成对抗网络,图像生成,自注意力机制,卷积神经网络

Rapid Generation of Adversarial Networks Based on Spatial Attention Mechanism

Tianbao Wu, Fang Xu

School of Science, Southwest Petroleum University, Chengdu Sichuan

Received: Jan. 6th, 2023; accepted: Feb. 3rd, 2023; published: Feb. 13th, 2023

ABSTRACT

Aiming at the problems of low image generation quality and slow model convergence caused by insufficient data in practical applications, a fast generation adversarial network model based on attention mechanism is proposed. The model can obtain the global information of the image by introducing the simplified attention mechanism module. The model is mainly composed of a residual module with an attention mechanism and a layer-jumping connection mechanism. At the same time, adversarial learning makes the image generated by the model more realistic. In order to speed up the convergence, metadata as the input of the model provides the basic information of the basic image for the model. Experimental results show that the proposed model not only converges faster on small data sets, but also has more realistic imaging. Compared with the existing modules on the data set with sufficient data, this model can generate images of very similar quality, and greatly shorten the time of convergence and reduce the memory consumption.

Keywords:Generate Adversarial Network, Image Generation, Self-Attention Mechanism, Convolutional Neural Network

Copyright © 2023 by author(s) and Hans Publishers Inc.

This work is licensed under the Creative Commons Attribution International License (CC BY 4.0).

http://creativecommons.org/licenses/by/4.0/

1. 引言

生成式对抗网络(Generative adversarial network, GAN)自Ian Goodfellow [1] 等人提出后,越来越受到学术界和工业界的重视。随着对抗生成网络的发展,其在图像与视频的生成 [2] [3] [4] 、图像翻译 [5] 、图像修复 [6] 等领域都取得了巨大的成功。然而,这些成功却有着严苛的条件,需要大量的数据作为支撑,这导致了生成式对抗网络在小数据集上取得的结果很差。并且获得高分辨率的图像模型往往需要大显存和强算力的显卡,例如使用大型的服务器或者专业的显卡比如NVIDIA V100等,对设备的要求较高。因此迫切需要开发轻便且适用于小数据集的对抗神经网络。

在有限的数据下训练GAN通常会导致过度拟合和不稳定性问题 [7] 。由于数据量过少,判别器(Discriminator, D)无法获取更多的特征来分辨图像的真假,同时对于生成器而言无法提供有效的特征信息指导其生成图像,导致生成的图片质量低下。如何在有限的数据下获取足够的数据特征以此来改善图片的质量,这仍然是待解决的问题。该问题的最新方法包括使用不同的数据扩充训练集;使用新的正则项来约束模型的输出;使用新的架构获取更多的特征指导图像生成。由于数据集扩充的使用场景有限且对于图像质量提升也是有限的,现在主要的做法是提升模型的特征获取能力增加其容量,然后以数据扩充作为辅助。

为了保持模型轻便性的同时又提升模型对于全局视野的感受能力以及图片的质量,本文引入注意力机制 [8] 。注意力机制最初应用于自然语言处理中,加入注意力机制的模型能够更好地关注语句的前后顺序。加入了注意力机制的模型相比于传统的卷积模块为主导的网络而言能更好地获取图片全局关系。本文将使用空间注意力机制模块,该模块仅使用两个池化层和单个卷积层。池化层的加入增加了模型的感受范围。注意力机制模块获取的空间信息可以通过残差模块进入到更深层的网络中,减少了空间信息的损失。为了更好保持模型的收敛性,本文将在生成器(Generator, G)中使用元数据作为生成器的输入。元数据中包含低维度的空间信息可以为目标图像提供基本信息(例如,对象的类别和基本纹理等),这些基本的信息可以提高模型的收敛速度,并且能够稳定训练过程。基于注意力机制和元数据代替一般数据输入这两种方法本文提出一种适用于小数据集下的生成模型,称为基于空间注意力机制的快速生成模型。该模型在FASTGAN的基础上使用带有空间注意力机制的残差模块代替FASTGAN的残差块,在输入生成器的噪声中添加了元数据。相较于FASTGAN模型,本文的模型在小型数据集上的发挥更为出色,能够直观地提升图片的质量。本文的模型在提升图片质量的同时几乎不增加计算的负担。

本文的主要贡献有3个方面:

1) 本文引入空间注意力机制,重新设计了残差模块。

2) 使用新的残差模块与元数据,有效地改善了图像的质量。在有限的数据集上对于图像质量有明显的提升,在数据量足够的数据集上生成的图像包含更多的细节。

3) 本文的模型相较于FASTGAN几乎不增加计算成本。

2. 相关工作

生成对抗性网络旨在生成可信和真实的图像,自开创以来取得了巨大进展 [1] 。然而有一个问题始终没能解决,GAN的训练容易出现模式崩溃和不稳定 [9] 。为了解决这个问题,本文通过设计新的优化目标和网络架构来稳定训练并提高综合质量的模型。WGAN [10] 和f-GAN [11] 最小化了真实分布和生成分布的Wasserstein距离,而不是JS散度。BigGAN [12] 和StyleGAN [13] [14] 系列在制作逼真图像方面取得了突破性进展。SAGAN [15] 首次引入注意力机制模块辅助图像的生成。然而,这些模型的体积较大,当给定有限的数据时会导致模型不收敛、成像质量较差或者无法生成、过拟合等问题。

在有限的数据下提高合成质量仍然是一个未被解决的问题,这一问题近年来引起了广泛的关注。训练数据不足会导致鉴别器过度拟合,从而降低生成图像的质量。解决这种数据匮乏的一个直接方法是通过各种扩充来扩展训练集。除了采用传统的增强技术(例如,翻转、裁剪),ADA [16] 和DiffAug [17] 分别提出了自适应和可微增强来放大训练数据。APA [7] 基于自适应伪增强的过拟合程度来欺骗D。InsGen [18] 将实例识别作为辅助任务,以鼓励D区分每个单独的图像,这提高了鉴别器的鉴别力。

DCGAN [19] 使用卷积层来代替线性层,大幅改善了GAN的画质。Lecam [20] 在整个训练过程中使鉴别器的输出正规化。StackGAN [21] 采用分段式结构,同时使用多个判别器来稳定获取特征。FastGAN [22] 采用跳跃层信道激励模块和自监督鉴别器来稳定和加速训练。

FASTGAN提供了一个非常好的轻量级网络架构,其结构简洁易懂。FASTGAN在DCGAN的基础上设计了新的残差块,延用了跳层连接的设计。这使得模型能够获得快速的梯度流。FASTGAN在RTX3060等入门显卡上都可以运行。

该模型最大的优势在于给定很小的数据集也能快速的收敛,当样本的数据量少于1000幅图像时(多数时候只有100幅图像时),该模型也能收敛,并生成较高质量的图像。但是在实际使用过程中,由于追求更快的收敛速度从而导致模型对于全局信息和高频信息的感知能力不足,例如使用FFHQ数据集生成1024*1024高分别率图片时片总会存在图片坐上角的头发的缺失或者爆炸。并且还会出现左右脸有明显的差异,不符合人的感官。(如图1所示)

Figure 1. FASTGAN trained 50,000 FFHQ images on a RTX2080-Ti GPU for 24 hours at 1024*1024 resolution

图1. FASTGAN在1024*1024的分辨率下使用五万张FFHQ图片在RTX2080-Ti GPU上训练24个小时得到的结果

3. 思考与改进

FASTGAN是一个轻量级架构,其获得的特征信息更多的是依靠快速的梯度流,这样的方式使模型在生成高分辨率的图片时能够快速收敛,并获得质量更好的图像。FastGAN使用跳跃层连接增加梯度流的强度同时使用改进后的跳层激励模块(Skip-Layer Excitation module, SLE),通过跳连接这样的方式,实现了为不同卷积层在激活之前的元素添加。在激活之前应用通道上的乘法(可以在不同分辨率上相乘),消除了繁重的卷积计算。其次,在先前的GAN工作中,跳过连接仅在相同的分辨率内使用。相比之下,由于不再需要相等的空间维度,我们在具有更长范围(例如,8和128、16和256)的分辨率之间执行跳过连接。这两种设计使得SLE继承了残差模块(ResBlock)的优点,具有快捷的梯度流,同时不需要额外的计算负担。

FastGAN通过重新设计残差块来增加信息的流速,以此来解决模型卷积层数量太少(高分辨率层仅使用两层卷积)所导致的生成高分辨率图像收敛缓慢和特征信息丢失的问题。然而SLE模块对于信息的承载能力和稳固性却被忽略了,在快速的梯度流下会使得空间信息丢失。为了改善以上缺点,本文首先考虑模型的体积和收敛速度。我们延用FastGAN的架构,在其基础上中进行两点改进。

3.1. 改进一

对SLE模块进行改进。京东方团队2019年提出的一种单卷积层加上注意力机制实现超分辨率图片的模型。2019年提出的SAGAN中使用注意力机制在远距离依赖(long-range dependency)下来实现了图片生成任务。生成器产出的图片可以在判别器中检查图像中部和远端之间的详细特征是否一致。我们的目标是通过使用注意力机制来增加表征能力,即专注于重要特征,抑制不必要的特征。由于卷积运算通过将跨通道和空间信息混合在一起来提取信息特征,因此我们希望通过注意力机制模块来强调沿空间轴这个主要维度的有意义的特征。注意力机制模块通过学习强调或抑制一些特征来有效地帮助网络中的信息流动。在SLE模块上增加空间注意力机制模块(Spatial Attention Module),得到新的模块,称为跳层注意力激励模块(Skip-Layer Attention Excitation module, SLAE)。

图2的架构中,FastGAN直接将低分辨率和高分辨率的特征图直接输入SLE模块中。在SLAE模块中低分辨率下的特征图要先经过空间注意力机制模块后保存低纬度的空间信息,然后使用乘法将提取到的信息进行整合,借由跳连接输入到高维的图像中,这样可以减少空间信息的损失。(如图3所示)

Figure 2. Skip-Layer Attention Excitation module

图2. 跳层注意力激励模块

Figure 3. Skip-Layer Attention Excitation module and spatial attention module

图3. 跳层激励模块与空间注意力模块

3.2. 改进二

对输入生成器的数据做一些改进,为了加快训练过程,本文将元数据(metadata)纳入模型中,为生成器提供关于目标图像的基本信息,其中该信息可能包含生成器最终生成真实图像所需要的特征分布的线索,这可以帮助其提前了解要合成的对象类型。

Figure 4. Metadata structure input structure diagram

图4. 元数据结构输入结构图

此外,为了防止所提供的元数据强制模型实现来自元图像的身份转换,我们使用预训练的VGG-16网络的深层从给定的元图像中提取特征,把这些深层的特征作为元数据,因此元数据仅保留汇总的空间信息。之所以这样设计,主要是因为正常的空间特征包含了太多关于目标图像的细节,例如对象的颜色、形状、姿势和位置等。因此,根据平均每个通道中的所有空间特征,可以过滤这些细节,并且只保留基本信息,确保模型的良好的多样性。具体过程见图4

对要进行迭代的图片使用VGG-16的深层(本文使VGG-16的relu5_3输出特征,可根据数据图片分辨率大小适当地加深或者减少)来进行特征的提取然后相加到初始的噪声中。

3.3. 损失函数

采用对抗性损失函数的铰链版本来训练我们的模型。

L D = E x ~ I r e a l [ min ( 0 , 1 + D ( x ) ) ] E x ^ ~ G ( z ) [ min ( 0 , 1 D ( x ^ ) ) ] + L r e c o n s

L G = E z ~ N [ D ( G ( x ) ) ]

使用重建损失来鼓励鉴别器提取更具有代表性的特征。

L r e c o n s = E f ~ D e n c o d e ( x ) , x ~ I r e a l [ G ( f ) T ( x ) ]

其中f是来自D的中间特征图,函数 G 包含对f和解码器的处理, T 函数表示对来自真实图像 I r e a l 的样本x的处理。

4. 实验

设备:特别指出由于StyleGAN2在1024*1024分辨率下训练时的显存要求,FASTGAN原文中是在RTXTITANGPU上训练StyleGAN2。其余模型都在RTX2080-TI上运行,RTX2080-TI和TITAN具有相似的性能,模型在两个GPU上运行的时间相同。为了控制变量,本文仍然使用这两张GPU。

数据集:为了体现改进的方法的有效性以及进一步控制变量,使用了与FASTGAN相同的数据集。在256 × 256分辨率下,测试了动物脸狗和猫、100镜头奥巴马、熊猫和脾气暴躁的猫。在1024 × 1024分辨率下,测试了Flickr FaceHQ (FFHQ)、牛津花、WikiArt的艺术画、Unsplash的自然景观照片、Pokemon、动漫脸、头骨和贝壳。这些数据集旨在涵盖具有不同特征的图像:写实照片、图形插图和类似艺术的图像。

评估指标:1) 我们采用Fréchet起始距离(FID)来度量模型生成的图片的质量,FID量化生成图像和真实图像的分布之间的距离。对于少于1000张图像的数据集(大多数只有100张图像),我们让G生成5000张图像,并计算合成图像和整个训练集之间的FID。2) 学习感知相似性(LPIPS)提供了两个图像之间的感知距离。以上两种指标均为数值越低成像质量越高。

使用LPIPS报告生成器在给定真实图像上执行潜在空间反向跟踪时的重建质量,并测量自动编码性能。发现没有必要涉及其他指标,FID不太可能与其他指标不一致,改进后的模型和比较模型之间存在显著的性能差距。

比较模型:将我们的模型与:1) 最先进的(SOTA)无条件模型StyleGAN2,2) FASTGAN模型,进行比较。由于StyleGAN2需要更多的计算成本(cc)来训练,因此我们把FASTGAN作为基线模型(Baseline),这样更能方便直观的体现模型间性能的差异。本文将改进后的模型与StyleGAN2在绝对图像合成质量上进行了比较,而不考虑计算成本,并在可比较的范围内使用基线模型作为参考。

Table 1. Calculation cost comparison of models

表1. 模型的计算成本比较

以上的计算不包含提取元数据的过程,因为元数据在一次提取后可以重复的使用,并且可以与模型的迭代分开进行。StyleGAN2模型由于其庞大的显存需求在RTX TITAN GPU上计算获得表1的结果,其余均在RTX2080-TI上计算获得。本文的模型延续了轻巧的特性,对比StyleGAN2,其参数量只有其二分之一。对比基线模型迭代时间与参数量几乎没有变化。

Table 2. FID comparison of a few sample data sets at 256*256 resolution

表2. 256*256分辨率下少数样本数据集的FID比较

Table 3. FID comparison of a few sample data sets at1024*1024 resolution

表3. 1024*1024分辨率下少数样本数据集的FID比较

通过表1表2表3,容易发现模型在增加了一层卷积的前提下几乎不会增加模型的训练时间,在相同的时间内获得了更好的成像质量,说明模型并不是单纯的依靠卷积块的堆叠来提升性能。通过对比消融实验的结果,发现SLAE模块对于小数据集的效果是显著的,数据量少的数据集获得的提升更为明显。

Figure 5. Model adds metadata to the comparison diagram

图5. 模型加入元数据的对比图

图5中,仅在基线模型上加入元数据的情况下,容易看出图像收敛的更快了,能够更快速的得到人脸的特征(语句需要简练)。在未加入元数据的情况下,虽然对人脸的明显特征能很好的捕捉,但是对于背景以及细节的刻画很抽象,缺少对于全局信息的捕捉。

本文的模型在小样本上能获得更优良的性能,为了进行更彻底的评估,我们还使用更充分的训练样本在数据集上测试模型。在两个TITANRTXGPU上的批量大小为16训练三个模型,StyleGAN2训练5天,基线模型与本文的模型只训练24小时。

Table 4. FID comparison of a few sample data sets at 1024*1024 resolution

表4. 1024*1024分辨率下少数样本数据集的FID比较

Table 5. The LPIPS value of the generator

表5. 生成器的LPIPS值

通过表4表5,不难发现,我们的模型相比于数据量充足的数据集有不小的提升,在数据量足够的情况下依然没有办法超过StyleGAN2模型,这受限于模型的体积容量。但是,我们的模型花费的时间成本更少。通过表5,可以发现改进的SLAE模块提升了生成器重建图片的质量。

Figure 6. Partial results are displayed at each resolution

图6. 各个分辨率下的部分结果展示

5. 结论

本文提出两种方法来提升模型的信息承载能力,改进后的模型能够获取更多空间上的信息。在小样本数据集上的作用更为明显,对于依赖空间结构的人脸或者动物的脸等数据集,能够使其产生的图片更加符合人的实际观感,进一步提升了图片的质量。虽然在大型数据集上我们的模型用较小的计算代价获得了质量不错的图片(图6展示部分结果),但是在大型数据集下模型受限于本身的体积,当数据量到达一定的等级后模型的提升幅度无法与数据的增量相匹配。总体来说该模型更适合于数据量较少、设备有限、时间成本要求较低等情况。

文章引用

吴天宝,徐 芳. 基于空间注意力机制的快速生成对抗网络
Rapid Generation of Adversarial Networks Based on Spatial Attention Mechanism[J]. 计算机科学与应用, 2023, 13(02): 180-190. https://doi.org/10.12677/CSA.2023.132019

参考文献

  1. 1. Goodfellow, I., Pouget-Abadie, J., Mirza, M., et al. (2014) Generative Adversarial Nets. Proceedings of the 27th Inter-national Conference on Neural Information Processing Systems, Volume 2, 2672-2680.

  2. 2. Karras, T., Aittala, M., Laine, S., Härkönen, E., Hellsten, J., Lehtinen, J. and Aila, T. (2021) Alias-Free Generative Adversarial Networks. Ad-vances in Neural Information Processing Systems, 34, 214-233.

  3. 3. Wang, Z.W., She, Q. and Ward, T.E. (2021) Generative Adversarial Networks in Computer Vision: A Survey and Taxonomy. ACM Computing Surveys (CSUR), 54, 1-38. https://doi.org/10.1145/3439723

  4. 4. Wang, L., Ho, Y.-S. and Yoon, K.-J. (2019) Event-Based High Dy-namic Range Image and Very High Frame Rate Video Generation Using Conditional Generative Adversarial Networks. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, Long Beach, 16-20 June 2019, 10081-10090. https://doi.org/10.1109/CVPR.2019.01032

  5. 5. Tov, O., Alaluf, Y., Nitzan, Y., et al. (2021) Designing an Encoder for Stylegan Image Manipulation. ACM Transactions on Graphics, 40, 1-14. https://doi.org/10.1145/3450626.3459838

  6. 6. Liu, H.Y., Wan, Z.Y., Huang, W., et al. (2021) Pd-gan: Probabilis-tic Diverse Gan for Image Inpainting. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recog-nition, Nashville, 19-25 June 2021, 9371-9381. https://doi.org/10.1109/CVPR46437.2021.00925

  7. 7. Jiang, L.M., Dai, B., Wu, W. and Loy, C.C. (2021) Deceive D: Adaptive Pseudo Augmentation for GAN Training with Limited Data. 35th Conference on Neural Information Pro-cessing Systems (NeurIPS 2021), 6-14 December 2021, 153-171.

  8. 8. Xiao, T., Xu, Y., Yang, K., et al. (2015) The Application of Two-Level Attention Models in Deep Convolutional Neural Network for Fine-Grained Image Classifica-tion. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Boston, 7-12 June 2015, 842-850.

  9. 9. Jabbar, A., Li, X. and Omar, B. (2021) A survey on Generative Adversarial Networks: Variants, Appli-cations, and Training. ACM Computing Surveys, 54, 1-49. https://doi.org/10.1145/3463475

  10. 10. Arjovsky, M., Chintala, S. and Bottou, L. (2017) Wasserstein Generative Adversarial Networks. International Conference on Machine Learning, Volume 70, 214-223.

  11. 11. Nowozin, S., Cseke, B. and Tomioka, R. (2016) F-GAN: Training Generative Neural Samplers Using Variational Divergence Minimization. 30th Conference on Neural Information Processing Sys-tems (NIPS 2016), Barcelona, 5-10 December 2016, 432-654.

  12. 12. Donahue, J. and Simonyan, K. (2019) Large Scale Adversarial Representation Learning. 33rd Conference on Neural Information Processing Systems (NeurIPS 2019), Vancouver, 8-14 December 2019, 12-65.

  13. 13. Karras, T., Aila, T., Laine, S. and Lehtinen, J. (2018) Progressive Grow-ing of GANs for Improved Quality, Stability, and Variation. International Conference on Learning Representations, Vancouver, 30 April-3 May 2018, 254-337.

  14. 14. Karras, T., Laine, S. and Aila, T. (2019) A Style-Based Generator Ar-chitecture for Generative Adversarial Networks. Proceedings of the IEEE/CVF Conference on Computer Vision and Pat-tern Recognition, Long Beach, 16-20 June 2019, 4401-4410. https://doi.org/10.1109/CVPR.2019.00453

  15. 15. Zhang, H., Goodfellow, I., Metaxas, D. and Odena, A. (2019) Self-Attention Generative Adversarial Networks. Proceedings of the International Conference on Machine Learning, Long Beach, 9-15 June 2019, 7354-7363.

  16. 16. Karras, T., Laine, S., Aittala, M., et al. (2020) Analyzing and Improving the Image Quality of Stylegan. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, Seattle, 13-19 June 2020, 8110-8119. https://doi.org/10.1109/CVPR42600.2020.00813

  17. 17. Zhao, H.Y., Liu, Z.J., Lin, J., et al. (2020) Differentiable Augmentation for Data Efficient Gan Training. 34th Conference on Neural Information Processing Systems (NeurIPS 2020), Vancouver, 568-572.

  18. 18. Yang, C.Y., Shen, Y.J., Xu, Y.H. and Zhou, B.L. (2021) Data-Efficient Instance Generation from Instance Discrimination. 35th Conference on Neural Information Processing Systems (NeurIPS 2021) 6-14 December 2021, 9378-9390.

  19. 19. Radford, A., Metz, L. and Chintala, S. (2015) Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks. 4th International Conference on Learning Repre-sentations, ICLR 2016, San Juan, 2-4 May 2016, 689-956.

  20. 20. Tseng, H.-Y., Jiang, L., Liu, C., et al. (2021) Regular-izing Generative Adversarial Networks under Limited Data. Proceedings of the IEEE/CVF Conference on Computer Vi-sion and Pattern Recognition, Nashville, 19-25 June 2021, 7921-7931. https://doi.org/10.1109/CVPR46437.2021.00783

  21. 21. Zhang, H., Xu, T., Li, H., et al. (2017) StackGAN: Text to Photorealistic Image Synthesis with Stacked Generative Adversarial Networks. IEEE International Conference on Com-puter Vision, ICCV 2017, Venice, 22-29 October 2017, 5907-5915. https://doi.org/10.1109/ICCV.2017.629

  22. 22. Liu, B.C., Zhu, Y.Z., Song, K.P. and Elgammal, A. (2021) Towards Faster and Stabilized GAN Training for High-Fidelity Few-Shot Image Synthesis. International Conference on Learning Representations, ICLR 2021, Vienna, 4 May 2021, 135-983.

期刊菜单