Computer Science and Application
Vol. 12  No. 11 ( 2022 ), Article ID: 57919 , 9 pages
10.12677/CSA.2022.1211253

基于改进UNet的CT图像分割方法

陈格,史爱武*,田贞才,武 俊

武汉纺织大学计算机与人工智能学院,湖北 武汉

收稿日期:2022年10月11日;录用日期:2022年11月9日;发布日期:2022年11月16日

摘要

针对UNet以及UNet变体网络在CT图像分割任务中的输入是CT图像序列中的单张切片,或者单张切片的多视图图像,且没有考虑CT图像序列之间的特征关系,提出了一种新型的CSI-UNet肺结节分割网络。该网络以多张连续CT图像切片作为输入,充分考虑了分割目标切片与相邻切片之间的特征。CSI-UNet模型对UNet的编码器进行改进,使之能接受连续的多张CT图像切片,在跳跃连接结构中,引入新提出的独立通用的连续切片层融合模块CSF-Block来完成特征提取和概率融合,从而得到更精准的分割结果。实验中利用LUNA16肺结节分割公开数据集,对该网络和UNet模型进行训练和验证。最后,使用Dice系数和MIoU对分割结果进行评估。在测试集上,UNet模型中Dice系数和均交并比分别能达到79.59%、78.81%,CSI-UNet模型分别能达到85.56%、84.72%。实验结果表明,CSI-UNet可以准确分割出胸部CT图像上的结节区域。

关键词

UNet,CT图像,肺结节,残差模块,注意力机制

CT Image Segmentation Method Based on Improved UNet

Ge Chen, Aiwu Shi*, Zhencai Tian, Jun Wu

School of Computer and Artificial Intelligence, Wuhan Textile University, Wuhan Hubei

Received: Oct. 11th, 2022; accepted: Nov. 9th, 2022; published: Nov. 16th, 2022

ABSTRACT

The input of UNet and UNet variant network in CT image segmentation task is a single slice in CT image sequence, or a multi-view image of a single slice, and the feature relationship between CT image sequences is not considered, a new CSI-UNet lung nodule segmentation method is proposed. The network takes multiple continuous CT slices as input and fully considers the characteristics between the segmented target slice and the adjacent slices. The CSI-UNet model improves the encoder of UNet, so that it can accept multiple continuous CT image slices. In the skip connection structure, the newly proposed independent and general continuous slices layer fusion module CSF-Block is introduced to complete feature extraction and probabilistic fusion, so as to obtain more accurate segmentation results. In the experiment, LUNA16 lung nodule segmentation public data set was used to train and verify the network and UNet model. Finally, Dice coefficient and MIoU are used to evaluate the segmentation results. On the test set, Dice coefficient and MIoU in UNet model can reach 79.59% and 78.81% respectively, and CSI-UNet model can reach 85.56% and 84.72% respectively. The experimental results show that CSI-UNet can accurately segment the nodule region on the chest CT image.

Keywords:UNet, CT Image, Lung Nodule, Residual Module, Attention Mechanism

Copyright © 2022 by author(s) and Hans Publishers Inc.

This work is licensed under the Creative Commons Attribution International License (CC BY 4.0).

http://creativecommons.org/licenses/by/4.0/

1. 引言

肺癌是肺结节恶性肿瘤的一种,其发病率和死亡率一直在世界上居高不下,其早期检测对有效控制疾病进展至关重要 [1]。临床上,在接受系统治疗的肺癌患者中,医生一般通过CT图像来观察肺癌的一些特征如形态、体积来进行辅助判断和诊断 [2],然而,在高分辨率和高质量的胸部CT上,手动描绘肺结节非常复杂、耗时且极其繁琐。计算机辅助诊断(CAD)是结合医学影像技术和计算机技术,协助医师提高诊断效率和准确率的一种工具。要对肺癌进行计算机辅助诊断的关键问题是实现对病灶区域进行快速准确的分割。

医学CT图像结构极其复杂,成像模式多种多样,医院数据标准迥异,如CT、MRI、超声等,成像方法的不同,选择的分割方法不同,成像部位的不同,选择的分割方法也会不同。由于图像是无数个像素点组成,因此,病变的边界、形状等信息也很模糊。医学影像分割的一些传统方法,如基于阈值的分割方法 [3]、基于区域生长的分割方法 [4]、基于聚类的分割方法、基于边界的分割方法 [5] 等很多还需要人为干预,即称为半自动分割方法,并且容易受到主观影响。在医学图像处理中,卷积神经网络CNN代替了传统半自动分割,实现了全自动的分割,在许多领域都取得了一些成果,例如肺结节的分类 [6]、CT中ROI的定位 [7]、MRI中大脑的注册 [8] 或神经元结构的分割。在肺结节分割方面 [9],许多国内外学者提出了诸如U-Net [10]、SegNet [11] 等优秀的CNN网络模型,并取得不错的效果。然而,这些方法仅仅在二维CT图像上进行分割,却疏忽了器官在空间中的三维信息,导致分割效果提升不大。为此,许多科研学者提出将整个三维CT序列作为输入,传输到3D CNN网络进行训练,这种方法可行性高,但是对计算机硬件的要求特别高,特别是GPU、内存等,这些计算资源限制了3D CNN网络的层数以及参数量,训练时间也十分漫长。

针对上述问题,本文提出了一种连续CT切片作为输入的编码器–解码器分割框架(Continuous Slices Input UNet,简称CSI-UNet),和一个连续CT切片之间的特征融合模块(Continuous Slices Fusion Block,简称CSF-Block)。将连续的CT切片输入到网络,通过下采样、上采样和特征融合模块对输入的多张连续CT切片进行不同维度上的特征提取和概率融合,类似医师在每一张单个切片上勾画出目标区域的轮廓时,会参考与其相邻的切片。不仅能提升分割精度,而且能有效地降低运算量和训练速度。

2. 相关工作

UNet由于网络层数比较浅,非常适合医学领域的分割任务,但在医学具体任务上,更多的是对UNet网络进行优化、改进,使之效果更好。UNet改进网络通常是在UNet网络基础上,或是改变主干网络中卷积、重采样的方式,或是结合Inception结构、残差结构、注意力结构、金字塔池结构等综合运用,以此来提高分割的精度。ASU-Net++ (2021) [12] 将原来的空间金字塔池(ASPP)简化为自适应池结构,并在一个超声数据集和两个CT数据集上对该方法进行了评估。PSPNet (2017) [13] 采用金字塔池模块,在多尺度区域上提取出固定大小的特征向量,来融合挖掘上下文信息和全局信息。DeepLab v3+ (2018) [14] 将空洞卷积和金字塔池层保留,并加入了多尺度的特征信息融合。DUNet (2019) [15] 通过添加空洞卷积扩大感受野来获取全局特征信息,但是会造成局部细节信息丢失。MIFNet (2019) [16] 通过将不同尺度的图像输入到网络,通过网络对不同尺度的特征进行融合和提取,以实现对胃癌病灶区域的分割。

在三维分割框架方面,基于三维CNN的方法都是将整个图像序列分割为一个三维结果,由于空间信息的下降,导致基于CNN的2D方法的性能普遍低于基于3D的方法。然而,基于3D的方法需要更复杂的网络结构、更多的算力资源,训练更具挑战性。Vnet (2016) [17] 是最具有代表性3D的框架,一些关于三维分割的研究都是基于VNet。如VoxResNet (2018) [18],在VNet框架下,加入了3D残差连接,缓解了模型训练时产生的退化问题,同时,充分利用加深网络层数来提升模型的性能。nnUNet (2018) [19] 将工作重心集中在预处理、训练、后处理方面,没有用到新的网络结构,只对UNet做出了一些修改,将此种分割结果与许多先进网络对比,结果取得了非常好的成绩。

CT图像中结节的形状、特征和周围噪音给肺部结节的鲁棒分割带来了挑战。本文提出了一种资源高效的、端到端的CSI-UNet模型框架,还提出一种CSF-Block模块在框架中进行有效的特征融合,用于分割肺部CT图像中的肺结节,其计算效率类似于基于2D CNN的分割框架,并像基于3D CNN的分割框架一样考虑空间信息。本文针对CSI-UNet网络的有效性做了对比实验,分别与一些具有代表性的医学影像分割方法如UNet (2015)、UNet++ (2018)、Dense-UNet (2020)、Swin-UNet (2021)对比。

3. 网络改进

本文提出一种端到端的深度卷积模型CSI-UNet,以UNet网络作为基础网络,在UNet的编码器结构部分改进,在跳跃连接结构部分加入了新提出的带有权值学习的连续CT切片图像融合模块,在每次下采样(或上采样)之前的双层卷积部分加入了残差模块,构建了适用于肺结节分割的CSI-UNet网络。

3.1. CSI-UNet网络结构

CSI-UNet网络与UNet网络类似,包括编码器、解码器和中间的跳跃连接三种结构,如图1所示。

编码结构部分:接受输入连续的三张CT切片图像,通过卷积、下采样,得到不同尺度的特征层。本文在每次下采样之前(或上采样之前)的双层卷积部分加入了残差学习机制,既避免了梯度消失和梯度爆炸,又使得分割效果更为精准,残差结构如图2所示,C和C'代表通道数。常见的下采样方法有卷积、池化等方法,最大池化通过保留最突出的特征,丢弃不明显的特征来实现下采样,平均池化是为了聚合空间上的信息特征,本文使用的下采样方法是最大池化。跳跃连接部分:不同尺度的特征层通过CSF-Block对不同的切片层进行概率融合,通过跳跃连接与解码器的特征层拼接,有效地弥补了图像上采样的过程中细节恢复的不足。解码结构部分:常用的上采样有线性插值、反池化、转置卷积等,此处使用最邻近插值上采样方法恢复图片的分辨率,弥补池化过程中丢失的细节信息,1 × 1卷积会根据分类需求对图片中的像素进行分类,以得到最终的结果。

Figure 1. CSI-UNet structure

图1. CSI-UNet结构

Figure 2. Residual structure

图2. 残差结构

3.2. CSF-Block结构

CSF-Block的输入层称Input层(Feature Map, N × H × W × C),有N个切片层,通道数为C,高宽分别为H、W。CSF-Block结构如图3所示。该模块有两条分支,第一条分支中,通过卷积改变通道数得到一个通道为1高宽不变的N个切片层的特征图,然后,N个切片层经过concat拼接得到一个H×W×N的特征层,然后,通过通道注意力模块(Channel Attention Module, CAM)得到一个1 × 1 × N的权重特征图,该分支的作用是学习到N个切片层的权重。第二条分支中,Input层与第一条分支中的权值进行逐个切片层相乘再相加取均值,融合得到Output特征图(H × W × C)。

CSF-Block的作用是让编码器部分不同尺度的特征层进行特征融合,使特征层的结构能够与解码器部分的特征层进行连接,提高了分割精度。CSF-Block可充分融合N个切片层之间的信息,保留上下文信息,增强高维信息。并且适用于多个切片层之间的融合。不过值得注意的是,本文的CSI-UNet网络采用的CSF-Block结构中N = 3。

CAM模块的作用是自适应地学习输入通道间的特征权重,并通过权重强调或抑制来调整通道间的相关性。CAM模块如图4所示,首先,输入特征层F(H×W×C)分别经过平均池化和最大池化来分别聚合空间信息特征和突出空间信息特征,然后,通过两个全连接层,即双层感知机MLP,将两组结果逐元素相加经过Sigmoid得到通道特征层的权重。

Figure 3. CSF-Block structure

图3. CSF-Block结构

Figure 4. Channel attention module structure

图4. 通道注意力模块结构

4. 实验与分析

4.1. 数据集

本文肺结节分割的数据采用的是LUNA16,该数据集是LIDC-IDRI下面的一个子集,LIDC-IDRI数据集一共收录了1018个病人的CT图像序列,这些CT序列都是由4位放射科专家经过两阶段仔细的诊断标注,让标记的结果做到客观、准确。LUNA16数据集由888个带注释的CT扫描组成。在这些CT图像中,四位放射科医生扫描后,将切片厚度大于3 mm的CT去除,剔除3 mm以上的CT是因为切片越薄效果越好。CT图像的文件格式为mhd,每张CT切片的像素点大小是512 × 512,通道数是1。关于LUNA16数据集的介绍可参考官方论文 [20]。本文由于需要连续的CT切片作为输入,在LUNA16数据集888个CT序列中选取1200张符合要求的图像作为数据集,按照4:1划分,得到的训练集和测试集图片数量分别为960张和240张。

4.2. 预处理

本文所采用的数据集是LIDC-IDRI的子集LUNA16数据集。由于CT影像是整个胸腔的截面,且肺结节只需要关注肺实质区域,因此,需要对数据进行处理。先对CT数据进行格式转换,采用基于阈值的方法将肺实质分割出来,然后,利用形态学方法对肺实质内部的噪声进行消除,以避免其它组织的影响,使结节分割更为准确。

CT图像所采用的单位为HU,代表着X射线衰减值,HU = 0,HU空气 = −1000,其他组织的HU值由HU和HU空气计算可得。本文预处理流程图如图5所示。图5(a)是原始图像,经过全局阈值的方法将图像转化成二进制图像,如图5(b),阈值T = −600HU。将二进制图像中靠近边框周围的值和肉眼看不见的斑点消除,得到图5(c)。通过连通区域标记得到图5(d)。连通2个最大的区域得到图5(e)。然后分别用半径为2和10的圆依次进行侵蚀和闭合操作得到图图5(f)和图5(g)。最后填充肺实质区域内的小孔得到mask图片,如图5(h),将图5(a)与图5(h)叠加得到肺实质区域。经过线性变换,HU值就可以得到像素值。

Figure 5. Pretreatment process

图5. 预处理过程

4.3. 评价指标

混淆矩阵(Confusion Matrix,也叫误差矩阵),是一种用N × N的矩阵形式来表示的、对结果精度进行评价的一种标准格式。本文的图像分割本质是一个二元分类问题,因此,用2 × 2的混淆矩阵进行评价。混淆矩阵见表1,其中,T代表True,F代表False,P代表Postive,N代表Negative。

Table 1. Confusion matrix

表1. 混淆矩阵

在图像分割领域,使用Dice相似系数(Dice Similariy Coefficient, DSC)和平均交并比(Mean Intersection over Union, MIoU)等来评价算法的性能,具体公式如式(1)、式(2):

D i c e = 2 T P F P + 2 T P + F N (1)

M I o U = 1 k + 1 i = 0 k T P F N + F P + T P (2)

4.4. 实验结果

本文将提出的分割算法CSI-UNet与UNet、UNet++、Dense-UNet、Swin-UNet进行对比,以检验不同网络的性能。采用5-fold cross validation,参数训练采用Adam优化器,学习率设为0.0002,损失函数为交叉熵,激活函数为ReLU,最大迭代次数epoch设为200轮,batchsize设为40。在Window10平台上搭建整个模型,显卡为Nvidia GeForce RTX 3060 Ti,CPU为Core i7-12700K,内存为32G,编程语言为Python 3.8,深度学习框架为Pytorch 1.8.0。

Figure 6. Comparison diagram of segmentation results

图6. 分割结果对比图

对五组实验的分割结果进行可视化处理,部分结果如图6所示。从图中可直观看出,UNet网络分割有一定的瑕疵,效果一般,其它网络在视觉效果上区别不太明显。根据训练集和数据集的实验结果可以得到不同模型在训练集和测试集上的Dice相似系数和均交并比,如表2所示。

Table 2. Evaluation index of different models of confusion matrix

表2. 混淆矩阵不同模型的评价指标

表2可知,在使用相同数据集的情况下,本文算法在Dice和MIoU指标下均优于其他网络,相比UNet提升了5.97%、5.91%,从侧面反映CSI-UNet模型考虑了更多的三维语义信息,并且证明了其分割精度的提升和分割的有效性。Swin-UNet表现仅优于UNet,这也可能是数据集量不够,模型参数训练不够的结果。从图7绘制了各种算法训练的epoch曲线图中可以进一步直观反映分割模型的性能,收敛速度越快,其学习的参数与ROI病灶区域的相关度越高。对于两种评价指标,训练前期模型收敛速度更快,后期收敛变缓,同时训练相对更稳定,指标曲线几乎始终在其他模型之上,同时,最终得到的分割精度也更高。

Figure 7. Model training curve

图7. 模型训练曲线

传统的卷积神经网络在传输过程中容易丢失一些信息。同时,梯度消失和梯度爆炸会给传统卷积神经网络的训练带来困难。本文在CSI-UNet网络每次下采样之前(或上采样之前)的双层卷积部分加入了残差模块进行了消融实验,实验结果如表3。加入了残差模块方法要比普通卷积方法效果好很多,侧面映证了残差模块可以加强特征层之间特征信息的提取。

Table 3. Residual module ablation experiment

表3. 残差模块消融实验

5. 结论

肺结节的分割对计算机辅助诊断有着十分关键的作用。本文针对传统CT图像分割算法没有考虑多个切片中肺结节之间的关系,提出了一种改进的UNet分割方法。通过对比实验表明,该方法性能上表现良好,分割效果不错,Dice相似系数和MioU都有提高。但本文算法也存在一定的不足,由于需要连续切片作为输入来提取更充分的特征,所以该方法一般局限于CT、MRI类具有连续切片的影像,对切片的厚度、质量也有所要求。另外,由于肺结节的种类繁多,单一的数据集并不能充分体现结节的多样性。下一步研究的工作重点是对该网络框架在不同的数据集上试验研究,以期望获得更好的肺结节分割性能。

基金项目

国家自然科学基金面上基金项目(61170093),湖北省教育厅科学技术研究计划重点基金项目(D20141603)。

文章引用

陈 格,史爱武,田贞才,武 俊. 基于改进UNet的CT图像分割方法
CT Image Segmentation Method Based on Improved UNet[J]. 计算机科学与应用, 2022, 12(11): 2472-2480. https://doi.org/10.12677/CSA.2022.1211253

参考文献

  1. 1. Lu, Y.-H., Wang, B.-X. and Wang, J.-L. (2022) Changing Trend in Disease Burden of Lung Cancer and Its Risk Factors among Chinese Residents, 1990-2019. Chinese Journal of Public Health, 38, 513-517.

  2. 2. Jiang, J., Hu, Y.C., Liu, C.J., et al. (2019) Multiple Resolution Residually Connected Feature Streams for Automatic Lung Tumor Segmentation From CT Images. IEEE Transactions on Medical Imaging, 38, 134-144. https://doi.org/10.1109/TMI.2018.2857800

  3. 3. Seo, K.S., Kim, H.B., Park, T., Kim, P.-K. and Park, J.-A. (2005) Automatic Liver Segmentation of Contrast Enhanced CT Images Based on Histogram Processing. In: Wang, L., Chen, K. and Ong, Y.S., Eds., Advances in Natural Computation, Springer, Berlin, 1027-1030. https://doi.org/10.1007/11539087_135

  4. 4. Oliveira, D.A., Feitosa, R.Q. and Correia. M.M. (2011) Segmentation of Liver, Its Vessels and Lesions from CT Images for Surgical Planning. Biomedical Engineering Online, 10, Article No. 30. https://doi.org/10.1186/1475-925X-10-30

  5. 5. Suzuki, K., Kohlbrenner, R., Epstein, M.L., et al. (2010) Comput-er-Aided Measurement of Liver Volumes in CT by Means of Geodesic Active Contour Segmentation Coupled with Lev-el-Set Algorithms. Medical Physics, 37, 2159-2166. https://doi.org/10.1118/1.3395579

  6. 6. Shen, W., Zhou, M., Yang, F., Yang, C. and Tian, J. (2015) Multi-Scale Convolutional Neural Networks for Lung Nodule Classification. In: Ourselin, S., Alexander, D., Westin, C.F. and Car-doso, M., Eds., Information Processing in Medical Imaging, Springer, Cham, 588-599. https://doi.org/10.1007/978-3-319-19992-4_46

  7. 7. De Vos, B.D., Wolterink, J.M., De Jong, P.A., Viergever, M.A. and Išgum, I. (2016) 2D Image Classification for 3D Anatomy Localization: Employing Deep Convolutional Neu-ral Networks. In: Styner, M.A. and Angelini, E.D., Eds., Progress in Biomedical Optics and Imaging—Proceedings of the SPIE, Vol. 9784, San Diego, 1-3 March 2016, 97841Y. https://doi.org/10.1117/12.2216971

  8. 8. Yang, X., Kwitt, R. and Niethammer, M. (2016) Fast Predictive Image Registration. In: Carneiro, G., et al., Eds., Deep Learning and Data Labeling for Medical Applications, Springer International Publishing, Switzerland, 48-57. https://doi.org/10.1007/978-3-319-46976-8_6

  9. 9. 袁金丽, 赵琳琳, 郭志涛, 等. 改进U型残差网络用于肺结节检测[J]. 计算机工程与应用, 2022, 58(13): 195-203.

  10. 10. Ronneberger, O., Fischer, P. and Brox, T. (2015) U-Net: Convolutional Networks for Biomedical Image Segmentation. In: Navab, N., Hornegger, J., Wells, W. and Frangi, A., Eds., Medical Image Computing and Computer-Assisted Intervention—MICCAI 2015, Springer, Cham, 234-241. https://doi.org/10.1007/978-3-319-24574-4_28

  11. 11. Badrinarayanan, V., Kendall, A. and Cipolla, R. (2017) Se-gNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation. IEEE Transactions on Pattern Analysis and Machine Intelligence, 39, 2481-2495. https://doi.org/10.1109/TPAMI.2016.2644615

  12. 12. Gao, Q. and Almekkawy, M. (2021) ASU-Net++: A Nested U-Net with Adaptive Feature Extractions for Liver Tumor Segmentation. Computers in Biology and Medicine, 136, Arti-cle ID: 104688. https://doi.org/10.1016/j.compbiomed.2021.104688

  13. 13. Zhao, H., Shi, J., Qi, X., Wang, X. and Jia, J. (2017) Pyramid Scene Parsing Network. 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Hono-lulu, 21-26 July 2017, 6230-6239. https://doi.org/10.1109/CVPR.2017.660

  14. 14. Chen, L.C., Zhu, Y., Papandreou, G., Schroff, F. and Adam, H. (2018) Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation. In: Ferrari, V., Hebert, M., Sminchisescu, C. and Weiss, Y., Eds., Computer Vision—ECCV 2018, Springer, Cham, 833-851. https://doi.org/10.1007/978-3-030-01234-2_49

  15. 15. Jin, Q.G., Meng, Z.P., Pham, T.D., et al. (2019) DUNet: A Deformable Network for Retinal Vessel Segmentation. Knowledge-Based Systems, 178, 149-162. https://doi.org/10.1016/j.knosys.2019.04.025

  16. 16. 张泽中, 高敬阳, 赵地. MIFNet: 基于多尺度输入与特征融合的胃癌病理图像分割方法[J]. 计算机应用, 2019, 39(z2): 107-113.

  17. 17. Milletari, F., Navab, N. and Ahmadi, S.A. (2016) V-Net: Fully Convolutional Neural Networks for Volumetric Medical Image Segmentation. 2016 4th Internation-al Conference on 3D Vision (3DV), Stanford, 25-28 October 2016, 565-571. https://doi.org/10.1109/3DV.2016.79

  18. 18. Chen, H., Dou, Q., Yu, L., Qin, J. and Heng, P.A. (2018) VoxResNet: Deep Voxelwise Residual Networks for Brain Segmentation from 3D MR Images. NeuroImage, 170, 446-455. https://doi.org/10.1016/j.neuroimage.2017.04.041

  19. 19. Isensee, F., Jaeger, P., Kohl, S., et al. (2018) nnU-Net: A Self-Configuring Method for Deep Learning-Based Biomedical Image Segmentation. Nature Methods, 18, 203-211.

  20. 20. Setio, A.A.A., et al. (2017) Validation, Comparison, and Combination of Algorithms for Automatic De-tection of Pulmonary Nodules in Computed Tomography Images: The LUNA16 Challenge. Medical Image Analysis, 42, 1-13. https://doi.org/10.1016/j.media.2017.06.015

期刊菜单