Modeling and Simulation
Vol. 13  No. 01 ( 2024 ), Article ID: 78648 , 11 pages
10.12677/MOS.2024.131001

注意力特征融合VGG-16网络的胸透病理识别方法

罗珺茜,彭嘉,周娟,龙楷潮,韦焕泽,张利*

贵州大学大数据与信息工程学院,贵州 贵阳

收稿日期:2023年11月2日;录用日期:2023年12月22日;发布日期:2023年12月30日

摘要

美国国立卫生研究院发布了一个名为“Chest-ray8”的胸部X光图像数据库,这些图像共标记八种类型的疾病。从临床图像中识别病理,开发人工智能辅助诊断系统,帮助医生识别病理一直是一项具有挑战性的任务,为更好地解决这一问题,本文提出注意力特征融合VGG-16网络的胸透病理识别方法。首先,X光图像通过VGG-16特征提取网络得到特征向量;然后,特征向量分别通过通道注意力机制得到不同通道加权系数的特征向量A、空间注意力机制得到不同区域系数的特征向量B,将特征向量A和特征向量B以及第一层卷积层输出的特征向量C进行向量拼接;最后将拼接的向量输入全连接层输出分类结果。实验结果证明,本方法实现多分类正确率达到75.94%,相比基线VGG-16高3.75%;和其他使用“Chest-ray8”数据库进行二分类病理识别方法相比,本文模型实现了病理的多分类问题。为深度学习技术应用于胸部X光不同病理的计算机辅助诊断系统提供了可行性。

关键词

Chest-ray8,VGG-16,注意力机制,特征融合

Attention Feature Fusion with VGG-16 Network for Chest X-Ray Pathologic Identification

Junxi Luo, Jia Peng, Juan Zhou, Kaichao Long, Huanze Wei, Li Zhang*

College of Big Data and Information Engineering, Guizhou University, Guiyang Guizhou

Received: Nov. 2nd, 2023; accepted: Dec. 22nd, 2023; published: Dec. 30th, 2023

ABSTRACT

The National Institutes of Health publishes a database of Chest X-ray images called Chest-ray8, which are labeled for a total of eight types of disease. It has always been a challenging task to identify pathology from clinical images and develop an AI-assisted diagnosis system to help doctors identify pathology. In order to better solve this problem, this paper proposed a chest X-ray pathologic recognition method based on the fusion of attention features and the VGG-16 network. Firstly, the X-ray image feature vectors were obtained by the VGG-16 feature extraction network. Then, feature vectors A with different channel weighting coefficients were obtained by the channel attention mechanism, and feature vectors B with different regional coefficients were obtained by the spatial attention mechanism respectively. Feature vectors A, B and C output from the first convolution layer were spliced. Finally, the spliced vector is input into the full connection layer to output the classification result. Experimental results show that the accuracy of multi-classification achieved by this method is 75.94%, which is 3.75% higher than that of baseline VGG-16. Compared with other methods using Chest-ray8 database for binary pathological identification, the model in this paper achieves the problem of multi-classification of pathology. It provides the feasibility of applying deep learning technology to computer-aided diagnosis systems of different pathologies of chest X-rays.

Keywords:CHEST-ray8, VGG-16, Attention Mechanism, Feature Fusion

Copyright © 2024 by author(s) and Hans Publishers Inc.

This work is licensed under the Creative Commons Attribution International License (CC BY 4.0).

http://creativecommons.org/licenses/by/4.0/

1. 引言

胸透X光(即X光检查)作为放射学中最常见的检查,是检测和可视化身体器官异常的有效诊断工具,全球每天都有大量人肺部患病或因肺部出现问题而死亡,需要对大量患者进行肺部检测,胸透X光和胸部CT是诊断相关问题的有效成像技术。深度学习技术提供了有用的分析来研究大量胸透X光图像,开发计算机辅助诊断系统(Computer Aided Diagnosis, CAD)对协助临床医生做出正确的判断有重要意义 [1] [2] 。

国内外以卷积神经网络(Convolutional Neural Network, CNN)为主的深度学习技术已经广泛应用于医学图像处理领域,如先后提出的两份胸透X光数据集“Chest-ray14” [3] 和“Chest-ray8” [4] 。许多研究已提出用深度学习模型以检测肺癌和其他肺部疾病。Bharati [5] 等人提出VDSNet的新混合深度学习框架,用于从X射线图像中检测肺部疾病。Que [6] 和周 [7] 等人通过迁移学习,从NIH Chest-ray8中二分类识别心脏肥大病理;Aviel [8] 和王 [9] 等人利用深度卷积神经网络对NIH Chest-ray8中进行二分类气胸病理识别,相关研究证明了图像分类方法在医学领域上也能适用 [10] 。但主要研究均为单个病理的二分类问题,没有实现多分类研究。为此,本文受Tammina [11] 等人通过深度卷积网络和VGG-16迁移进行图像分类的迁移学习、Woo [12] 的卷积块注意模块思想、Sitaula [13] 等人在VGG-16网络上施加注意力机制方法实现COVID-19胸部X射线的图像分类方法、以及特征融合思想 [14] [15] [16] 的启发,提出了基于注意力特征融合VGG-16网络的胸透病理识别方法。

本文的重要贡献和创新如下:

1) 在VGG-16模型上并行施加通道注意力和空间注意力得到特征向量A、B以及提取VGG-16第一层浅层语义信息特征向量C。

2) 结合特征融合向量拼接方法,先将特征向量A和特征向量B拼接,然后拼接特征向量C。降低网络深度带来的浅层语义丢失问题,增强VGG-16模型分类能力。

2. 数据源选择与预处理

本文使用“ChestX-ray8”新胸部X光数据库,它包括1992年至2015年从32,717名独特患者身上拍摄的108,948张正面视图X光图像。每个图像通过自然语言处理(NLP)技术来注释,疾病标签包括Atelectasis (肺不张)、Cardiomegaly (心脏肥大)、Effusion (积液)、Infiltrate (浸润)、Mass (肿块)、Nodule (结节)、Pheumonia (肺炎)和Pneumothorax (气胸)。这个带注释的大数据集为开发基于深度学习方法的CAD系统提供了机会。

本文提取出ChestX-ray8数据库中包含八种疾病的图像共984张,其中Atelectasis图像180张、Cardiomegaly图像146张、Effusion图像153张、Infiltrate图像123张、Mass图像85张、Nodule图像79张、Pheumonia图像120张和Pneumothorax图像98张。原始图像尺寸为1024 × 1024,把所有的图像进行归一化处理。八种病理图像如图1所示:

Figure 1. Eight pathological classifications of lung

图1. 八种肺部病理分类

3. 相关工作

VGG-16模型由牛津视觉几何组的Karen与Andrew于2014年提出,是图片分类任务中经典的神经网络模型,该网络模型统一采用3 × 3的小卷积核以及2 × 2的最大池化层,共包含16层,其模型如图2所示,分别为13个卷积层和3个全连接层 [17] 。主要包括5个卷积层模块,2个全连接层和1个输出层。每个卷积层模块中包含2个或3个卷积层,以及1个最大池化层。图片输入首先经过64个卷积核的两次卷积后,采用一次pooling,第二次经过128个卷积核两次卷积后,再采用pooling,再重复两次三个512个卷积核卷积后,再pooling,最后经过三次全连接 [18] 。VGG-16模型采用的是最大池化,其计算公式(1)为:

x j l = f ( i k j x i l 1 w i j l + b j l ) (1)

其中l代表当前层; x j l 代表第层上的第j个特征图; x i l 1 代表层中第i个特征; f ( ) 代表激活函数; w i j l 代表卷积核; k j 代表输入层感受野; b j l 代表输出的偏置项。

Figure 2. VGG-16 network architecture

图2. VGG-16网络架构

4. 算法改进

4.1. 本文算法框架

卷积块注意模块(Convolutional Block Attention Module, CBAM)作为一个轻量级的注意力机制模块,其包含的通道注意力和空间注意力模块,能够并行或顺序方法组合并且能够无缝的嵌入到各种卷积神经网络结构中,经过广泛验证,模型在结合CBAM后,表现能力均有提升,展现了广泛的适用性 [19] 。

深度学习中,将不同卷积层提取到的不同尺度的特征通过融合的方式是提高分类性能的重要方法。在深度卷积神经网络中,浅层神经网络卷积层提取的特征分辨率比高层高,它含有很多位置信息、细节信息、但语义性低;深层神经网络卷积层提取的特征语义信息比浅层强,但分辨率低、对细节信息感知能力不行。很多分类方法通过融合多层特征,提高分类效果,本文在胸部病理识别分类时,除了处理最后高层卷积层特征信息,还应该考虑到第一层特征信息。因此本文提出注意力特征融合VGG-16网络的胸透病理识别方法,模型架构图如图3所示。

本模型训练过程具体步骤如下:

1) 输入图像:胸部X光图像加载时,先进行图像归一化,然后采用中心裁剪448 × 448尺寸。

2) 通道注意力模块:X光图像经过卷积神经网络和通道注意力模块输出特征向量A。

3) 空间注意力模块:X光图像经过卷积神经网络和空间注意力模块输出特征向量B。

4) 特征融合:将卷积神经网络第一层特征向量C和特征向量A、B进行向量拼接操作。

5) 分类:通过一个全连接层,得到最后分类结果,实现对肺部病理的识别分类。

Figure 3. Algorithm structure of this paper

图3. 本文算法结构

4.2. 融入通道注意力

通道注意力模块(Channel Attention Module, CAM)的作用是是将图像中单个特征的通道代表一个对应的检测器,如公式(2)所示:

M c ( F ) = ( M L P ( A v g P o o l ( F ) ) M L P ( M a x P o o l ( F ) ) ) = σ ( W 1 ( W 0 ( F a v g c ) ) + W 1 ( W 0 ( F a v g c ) ) ) (2)

式(2)中, σ 代表激活函数,并且 w 0 R c r × c w 1 R c × c r 。MLP权重 w 0 w 1 是为两个输入共享的, w 0 在ReLu激活函数后。

通道注意力网络将该网络前面提取到的特征向量通过通道注意力,将输出的特征向量和输入特征向量进行相乘,从而输出新特征向量。内积的操作使得一个向量成为权重系数,让模型判别某个通道,也就是某个特征的重要程度,自动更改系数大小,分配适当的权重系数 [20] 。网络结构如图4示:

Figure 4. Integrating channel attention

图4. 融入通道注意力

4.3. 融入空间注意力

空间注意力机制通过特征之间的位置关系输出空间注意力图来关注图像哪里的特征信息是重要的,公式如(3):

M c ( F ) = σ ( f 7 × 7 ( [ A v g P o o l ( F ) ; M a x P o o l ( F ) ] ) ) = σ ( f 7 × 7 ( [ F a v g S ; F m a x S ] ) ) (3)

其中,式中 σ 代表sigmoid函数, f 7 × 7 代表过滤器为7 × 7的卷积。

空间注意力网络将该网络前面提取到的特征向量通过空间注意力,输出的特征向量和输入特征向量进行克罗内克内积,也输出新特征向量。空间注意力是为了进一步加强目标特征位置信息。网络结构如图5所示:

Figure 5. Integrating spatial attention

图5. 融入空间注意力

4.4. 融入浅层信息

Concat(连接)是一种将两个或多个向量在某个维度上进行拼接的操作,常用于将不同的特征向量拼接起来,提升模型表现能力。具体来说,假如有两个不同的卷积层,得到两个不同的输出特征图分别为A和B,每个特征图大小都为 H × W × C ,其中H和W分别表示高度和宽度,C表示通道数。假设将两个特征向量图沿通道维度进行拼接,拼接后的特征图大小为 H × W × ( C 1 + C 2 ) ,其中C1和C2分别表示两个特征图的通道数。

Figure 6. Feature vector splicing

图6. 特征向量拼接

在本文中,在深层卷积层(28 × 28 × 512)中通过空间注意力和通道注意力得到的输出分别为特征向量A和特征向量B,我们先在通道维度上将其进行拼接,提升网络对特征信息的表达能力。拼接后的特征向量再和浅层卷积层(448 × 448 × 64)得到的特征向量C进行拼接,降低VGG-16网络由于其网络深度过深导致浅层语义信息丢失影响,最后将拼接后的向量送入全连接层(图6)。拼接操作直接将不同的特征信息融合成同一特征信息,实现不同特征之间相互联系和互补。

5. 实验

本文分别进行VGG-16模型实验、本模型实验进行对比。本模型训练和测试环境为显卡型号:Tesla K80,驱动版本SIM为460.32.03,CUDA版本11.2,显存为12G,使用Pytorch框架。

5.1. 实验过程

根据大部分病理图像特征以及数据处理,确定图像输入尺寸为448 × 448;为了更好的学习到病理特征,根据实验设备设定batch_size为16;采用阶梯式学习率,起始学习率为1,每40次学习率变为原来的0.01倍,加快前期学习速度。迭代次数设定100次。本文采用多特征融合注意力机制的改进后的BA-CNN训练过程具体步骤如下:

1) 输入图像:X光图像加载时,进行归一化处理和中心裁剪448 × 448。

2) 获得特征向量A和B以及C:X光图像在VGG-16第一层卷积时输出特征向量C,并且经过5层卷积输出的特征向量分别通过通道注意力和空间注意力得到特征向量A和特征向量B。

3) 特征融合:将特征向量A和特征向量B在通道维度上进行拼接,然后再和特征向量C在通道维度上拼接,得到融合后的特征向量。

4) 分类:将3) 得到的特征向量输入全连层然后输出分类结果。

5.2. 实验结果

在实验过程中,将得到的训练网络模型保存并进行测试集验证,测试过程中分类正确率如图7所示,横坐标为网络模型名称,纵坐标为病理识别分类测试正确率,其中准确率公式计算如(4):

P = n N (4)

式中n代表八种病理准确分类图像数量,N代表总的八种病理图像数量。

Figure 7. Classification accuracy

图7. 分类正确率图

图8中的分类正确率柱状图可以看出,两个模型经过测试,本文模型下相比基线VGG-16模型准确率提升3.75%,提升效果明显。

6. 数据结果与分析

为了客观的评价本文提出分类方法的优势,我们将两种分类方法的混淆矩阵(Confusion Matrix)、准确率、召回率、F1-score运算量作为评价指标,本文将测试集中八种病理的187张图片一起输入训练好的网络进行测试。为验证本文方法正确八种病理识别的效果,将测试集中八种病理胸透X光图像随机输入到保存好的网络模型中测试,得到混淆矩阵如表1所示。

Table 1. Results of model classification in this paper

表1. 本文模型分类结果

从混淆矩阵结果能够看到,本文提出的方法能够较好的分离出八种病理。为了对比两种方法分类的性能。采用准确率(Pi)、召回率(Ri)以及F1i-score。其中Pi、Ri、F1i-score,其中i代表第i中病理,其中对每种类别的病理求准确率和召回率以及F1i-score时,将其看作二分类求解。定义如公式(5)~(7):

P i = N T P N T P + N F P (5)

R i = N T P N T P + N F N (6)

F 1 i - s c o r e = 2 × P × R P + R (7)

为了进一步验证注意力特征融合VGG-16网络的胸透病理识别方法的有效性,我们将VGG-16与我们的模型网络在八种病理下的Pi、Ri、F1i-score对比实验测试结果可视化如图8(a)~(c)的树状图所示。

Figure 8. (a) Accuracy of each pathology; (b) Recall rate of each pathology; (c) F1 values of each pathology

图8. (a) 各病理准确率图;(b) 各病理召回率;(c) 各病理F1值

图8(a)中可以看出,本文模型对Nodule病理识别分类正确率提高0.34及Effusion的识别分类正确率提升0.18,两种病理识别分类效果有明显提升,其中Pneumothorax以及Infiltrate的分类正确率分别0.05以及0.05,两者有着略微提升。表明了本文模型提升了总体识别分类效果。根据图8(b)、图8(c)中各个病理类别的召回率和F1值看出,Nodule和Effusion的召回率以及F1值都有明显提升。其中Pneumothorax以及Infiltrate的召回率以及F1值也略微提高。尤其是Pneumonia准确率没有提升,但是召回率和F1值有略微提升。

7. 同类研究比较

本文研究和国外当前研究进行比较,都采用相同的Chest-ray8数据集,其中文献 [9] 研究pneumothorax (气胸)的二分类;文献 [7] 研究Cardiomegaly (心脏肥大)的二分类问题,文献 [10] 研究Pneumonia (肺炎)表2数字代表该病理识别分类准确率,“×”代表文献没有研究该病理。

Table 2. Comparison of similar studies

表2. 同类研究比较

同样数据集下,和其他二分类方法相比,由于本文在图像上做归一化处理以及图像加载时进行一定的背景抑制方法,在网络模型中融合浅层语义信息,降低VGG-16网络深度过深带来的边缘信息丢失影响;并且通过注意力机制方法提升特征信息表达能力,所以多分类并未导致单个病理识别分类准确率的过多下降。

8. 结语

本文研究了应用迁移学习并加以改进的方法识别胸透X光八种病理的可行性,采用了基于VGG-16预训练的卷积神经网络模型提取特征,结合注意力机制与特征融合实现病理识别分类。相较于二分类方法,本文采用多分类方法更具实用性,但未实现端到端训练导致单个病理识别分类准确率略微下降。未来将会以如何实现端到端训练以及提高整体识别分类准确率作为研究方向。

致谢

感谢贵大人基合字(2018) 60号对本研究工作的帮助与支持,向评审人和提供帮助的人员表示谢意。

基金项目

贵大人基合字(2018) 60号。

文章引用

罗珺茜,彭 嘉,周 娟,龙楷潮,韦焕泽,张 利. 注意力特征融合VGG-16网络的胸透病理识别方法
Attention Feature Fusion with VGG-16 Network for Chest X-Ray Pathologic Identification[J]. 建模与仿真, 2024, 13(01): 1-11. https://doi.org/10.12677/MOS.2024.131001

参考文献

  1. 1. Shiraishi, J., Li, Q., Appelbaum, D. and Doi, K. (2011) Computer-Aided Diagnosis and Artificial Intelligence in Clinical Imaging. Seminars in Nuclear Medicine, 41, 449-462. https://doi.org/10.1053/j.semnuclmed.2011.06.004

  2. 2. Ardakani, A.A., Acharya, U.R., Abibollahi, S.H. and Hel-en, A.O. (2021) COVIDiag: A Clinical Computer-Aided Diagnosis (CAD) System for COVID-19 Diagnosis Based on CT Images. International Journal of Medical Radiology, 44, 239-240.

  3. 3. Rajpurkar, P., et al. (2017) CheXNet: Radi-ologist-Level Pneumonia Detection on Chest X-Rays with Deep Learning. https://doi.org/10.48550/arXiv.1711.05225

  4. 4. Wang, X.S., et al. (2017) Chestx-Ray8: Hospital-Scale Chest X-Ray Database and Benchmarks on Weakly-Supervised Classification and Localization of Common Thorax Diseases. Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, 21-26 July 2017, 3462-3471. https://doi.org/10.1109/CVPR.2017.369

  5. 5. Bharati, S., Prajoy, P. and Hossain Mondal, M.R. (2020) Hybriddeep Learning for Detecting Lung Diseases from X-Ray Images. Informatics in Medicine Unlocked, 20, Article ID: 100391. https://doi.org/10.1016/j.imu.2020.100391

  6. 6. Que, Q.W., et al. (2018) CardioXNet: Automated De-tection for Cardiomegaly Based on Deep Learning. 2018 40th Annual International Conference of the IEEE Engineering in Medicine and Biology Society (EMBC), Honolulu, 18-21 July 2018, 612-615. https://doi.org/10.1109/EMBC.2018.8512374

  7. 7. Zhou, S., Zhang, X. and Zhang, R. (2019) Identifying Cardio-megaly in Chest X-Ray8 Using Transfer Learning. Studies in Health Technology and Informatics, 264, 482-486.

  8. 8. Blumenfeld, A., Konen, E. and Greenspan, H. (2018) Pneumothorax Detection in Chest Radiographs Using Convolutional Neural Networks. Medical Imaging 2018: Computer-Aided Diagnosis, Houston, 12-15 February 2018. https://doi.org/10.1117/12.2292540

  9. 9. Wang, Z. (2019) Pneumothorax Radiograph Diagnosis Utilizing Deep Convolutional Neural Network. https://www.semanticscholar.org/paper/Pneumothorax-Radiograph-Diagnosis-Utilizing-DeepWang/cf7a1fae6a8ffd049c0e9591250727d1b70c42de#cited-papers

  10. 10. Antin, B., Kravitz, J. and Martayan, E. (2017) Detecting Pneumonia in Chest X-Rays with Supervised Learning. https://cs229.stanford.edu/proj2017/final-reports/5231221.pdf

  11. 11. Tammina, S. (2019) Transfer Learning Using VGG-16 with Deep Convolutional Neural Network for Classifying Images. International Journal of Scientific and Re-search Publications (IJSRP), 9, 143-150. https://doi.org/10.29322/IJSRP.9.10.2019.p9420

  12. 12. Woo, S., Park, J., Lee, J.Y. and Kweon, I.S. (2018) CBAM: Convolutional Block Attention Module. In: Ferrari, V., Hebert, M., Sminchisescu, C. and Weiss, Y., Eds., ECCV 2018: Computer Vision—ECCV 2018, Springer, Cham, 3-19. https://doi.org/10.1007/978-3-030-01234-2_1

  13. 13. Sitaula, C. and Hossain, M.B. (2021) Attention-Based VGG-16 Model for COVID-19 Chest X-Ray Image Classification. Applied Intelligence, 51, 2850-2863. https://doi.org/10.1007/s10489-020-02055-x

  14. 14. 陈宏宇, 罗海波, 惠斌, 常铮. 采用多特征融合的子块自动提取方法[J]. 红外与激光工程, 2021, 50(8): 354-362.

  15. 15. 闫子旭, 侯志强, 熊磊, 刘晓义, 余旺盛, 马素刚. YOLOv3和双线性特征融合的细粒度图像分类[J]. 中国图象图形学报, 2021, 26(4): 847-856.

  16. 16. 王梅, 李东旭. 基于改进VGG-16和朴素贝叶斯的手写数字识别[J]. 现代电子技术, 2020, 43(12): 176-181, 186.

  17. 17. Karen, S. and Zisserman, A. (2014) Very Deep Convolutional Networks for Large-Scale Image Recognition. https://arxiv.org/abs/1409.1556

  18. 18. 聂瑜, 陈春梅, 刘桂华. 基于VGG16改进的特征检测器[J]. 信息与控制, 2021, 50(4): 483-489. https://doi.org/10.13976/j.cnki.xk.2021.0509

  19. 19. 许文慧, 裴以建, 郜冬林, 朱久德, 刘云凯. 基于注意力机制与迁移学习的乳腺钼靶肿块分类[J]. 激光与光电子学进展, 2021, 58(4): 138-146.

  20. 20. 龙显忠, 熊健. 基于内积加权局部聚合描述子向量的图像分类[J]. 中国科技论文, 2021, 16(3): 259-265.

  21. NOTES

    *通讯作者。

期刊菜单