<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.4 20241031//EN" "JATS-journalpublishing1-4.dtd">
<article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" article-type="research-article" dtd-version="1.4" xml:lang="zh">
  <front>
    <journal-meta>
      <journal-id journal-id-type="publisher-id">csa</journal-id>
      <journal-title-group>
        <journal-title>Computer Science and Application</journal-title>
      </journal-title-group>
      <issn pub-type="epub">2161-881X</issn>
      <issn pub-type="ppub">2161-8801</issn>
      <publisher>
        <publisher-name>汉斯出版社</publisher-name>
      </publisher>
    </journal-meta>
    <article-meta>
      <article-id pub-id-type="doi">10.12677/csa.2026.164107</article-id>
      <article-id pub-id-type="publisher-id">csa-139093</article-id>
      <article-categories>
        <subj-group>
          <subject>Article</subject>
        </subj-group>
        <subj-group>
          <subject>信息通讯</subject>
        </subj-group>
      </article-categories>
      <title-group>
        <article-title>基于大核卷积残差块和坐标注意力的血管分割算法</article-title>
        <trans-title-group xml:lang="en">
          <trans-title>Vessel Segmentation Algorithm Based on Large Kernel Convolution Residual Block and Coordinate Attention</trans-title>
        </trans-title-group>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <name name-style="eastern">
            <surname>张</surname>
            <given-names>凯文</given-names>
          </name>
          <xref ref-type="aff" rid="aff1">1</xref>
        </contrib>
        <contrib contrib-type="author">
          <name name-style="eastern">
            <surname>龙</surname>
            <given-names>俊</given-names>
          </name>
          <xref ref-type="aff" rid="aff1">1</xref>
        </contrib>
        <contrib contrib-type="author">
          <name name-style="eastern">
            <surname>袁</surname>
            <given-names>品焓</given-names>
          </name>
          <xref ref-type="aff" rid="aff2">2</xref>
        </contrib>
        <contrib contrib-type="author">
          <name name-style="eastern">
            <surname>谢</surname>
            <given-names>怡宁</given-names>
          </name>
          <xref ref-type="aff" rid="aff1">1</xref>
        </contrib>
      </contrib-group>
      <aff id="aff1"><label>1</label> 东北林业大学机电工程学院，黑龙江 哈尔滨 </aff>
      <aff id="aff2"><label>2</label> 东北林业大学计算机与控制工程学院，黑龙江 哈尔滨 </aff>
      <pub-date pub-type="epub">
        <day>03</day>
        <month>04</month>
        <year>2026</year>
      </pub-date>
      <pub-date pub-type="collection">
        <month>04</month>
        <year>2026</year>
      </pub-date>
      <volume>16</volume>
      <issue>04</issue>
      <fpage>31</fpage>
      <lpage>41</lpage>
      <history>
        <date date-type="received">
          <day>28</day>
          <month>02</month>
          <year>2026</year>
        </date>
        <date date-type="accepted">
          <day>27</day>
          <month>03</month>
          <year>2026</year>
        </date>
        <date date-type="published">
          <day>07</day>
          <month>04</month>
          <year>2026</year>
        </date>
      </history>
      <permissions>
        <copyright-statement>© 2026 Hans Publishers Inc. All rights reserved.</copyright-statement>
        <copyright-year>2026</copyright-year>
        <license license-type="open-access">
          <license-p> This article is an open access article distributed under the terms and conditions of the Creative Commons Attribution (CC BY) license ( <ext-link ext-link-type="uri" xlink:href="https://creativecommons.org/licenses/by/4.0/">https://creativecommons.org/licenses/by/4.0/</ext-link> ). </license-p>
        </license>
      </permissions>
      <self-uri content-type="doi" xlink:href="https://doi.org/10.12677/csa.2026.164107">https://doi.org/10.12677/csa.2026.164107</self-uri>
      <abstract>
        <p>随着机器学习和深度学习的发展，研究者们应用各种算法和模型成功地从眼底图像中检测出相关疾病，其中视网膜血管的精确分割是眼科疾病自动化辅助诊断的关键步骤。然而传统分割算法存在血管与噪声难以区分，以及长距离血管拓扑结构难以保持连贯性等问题。为此，本文提出了一种基于大核卷积残差块和坐标注意力的眼底血管分割算法TLadder-AMSF。该算法采用具有大感受野的大核卷积残差块以建模长距离血管依赖，设计非对称多尺度融合模块AMSF以实现多尺度特征的精准聚合，并引入坐标注意力以增强空间方向感知能力。在DRIVE和STARE数据集上的实验结果表明，该方法在灵敏度上分别达到82.64%和83.56%，在准确率上分别达到96.25%和98.22%，各项指标与多个主流方法相比均达到先进水平。为了直观验证本文方法的分割性能，进行了可视化讨论。此外，消融实验证明大核卷积残差块、AMSF模块及坐标注意力提升了分割图像的拓扑连通性，验证了各个模块的有效性。</p>
      </abstract>
      <trans-abstract xml:lang="en">
        <p>With the development of machine learning and deep learning, researchers have successfully applied various algorithms and models to detect related diseases from fundus images, among which the precise segmentation of retinal blood vessels is a key step in automated ophthalmic disease diagnosis. However, traditional segmentation algorithms face issues such as difficulty distinguishing vessels from noise and maintaining the continuity of long-distance vessel topology. To address this, this paper proposes a fundus vessel segmentation algorithm TLadder-AMSF based on a large kernel convolution residual block and coordinate attention. This algorithm uses a Large Kernel Convolution Residual Block with a large receptive field to model long-distance vessel dependencies, designs an asymmetric multi-scale fusion module AMSF to achieve accurate aggregation of multi-scale features, and introduces a coordinate attention to enhance spatial directional perception. Experimental results on the DRIVE and STARE datasets show that the method achieves sensitivities of 82.64% and 83.56%, and accuracies of 96.25% and 98.22%, respectively, with all metrics reaching advanced levels compared to several mainstream methods. To visually validate the segmentation performance of this method, visualization discussions were conducted. In addition, ablation experiments demonstrated that the Large Kernel Convolution Residual Block, AMSF module, and coordinate attention improved the topological connectivity of segmented images, confirming the effectiveness of each module.</p>
      </trans-abstract>
      <kwd-group kwd-group-type="author-generated" xml:lang="zh">
        <kwd>血管分割</kwd>
        <kwd>非对称多尺度融合</kwd>
        <kwd>坐标注意力</kwd>
      </kwd-group>
      <kwd-group kwd-group-type="author-generated" xml:lang="en">
        <kwd>Vessel Segmentation</kwd>
        <kwd>Asymmetric Multi-Scale Fusion</kwd>
        <kwd>Coordinate Attention</kwd>
      </kwd-group>
    </article-meta>
  </front>
  <body>
    <sec id="sec1">
    </sec>
    <sec id="sec2">
      <title>1. 引言</title>
      <p>视网膜血管是人体唯一能够以无创方式直接观察到的微循环系统。视网膜血管形态的变化(如直径、分支角度及曲率)是临床诊断糖尿病视网膜病变、高血压、青光眼及多种心脑血管疾病的重要生物标志物[<xref ref-type="bibr" rid="B1">1</xref>]-[<xref ref-type="bibr" rid="B5">5</xref>]。通过对眼底图像进行精确的血管分割，能够量化血管形态指标，为临床医生提供客观的辅助诊断依据，实现疾病的早期筛查与精准诊断。自动化、高精度的血管分割是计算机辅助诊断系统的关键步骤。然而，目前临床上的视网膜分析多依赖专业医师的手动勾画，这不仅耗时费力，且受限于操作者的专业知识与主观经验，难以满足大规模筛查的需求。此外，由于视网膜图像存在光照不均、病变干扰(如渗出、出血)、以及血管自身尺度变化大(从粗大主干至纤细末梢)和结构复杂(交叉、缠绕)等挑战，实现鲁棒且精确的分割仍是一项艰巨任务。</p>
      <p>随着计算机视觉与深度学习技术的发展，研究者们提出了多种自动化分割算法，涵盖了传统方法和深度学习方法，包括无监督和监督学习方法，显著提升了血管分割的效率与客观性。无监督血管分割方法不依赖于任何标记数据，这些方法通过提取眼底图像中的血管和背景特征，发现它们之间的相互关系，然后进行血管分割。Wang等人[<xref ref-type="bibr" rid="B6">6</xref>]利用多小波核的匹配滤波器实现自动血管分割，在分割血管的同时特别去除了非血管边界部分。Yin等人[<xref ref-type="bibr" rid="B7">7</xref>]提出了一种基于血管跟踪算法的概率跟踪方法。血管跟踪算法涉及手动选择初始点，然后进行迭代血管边缘检测。然而，血管跟踪方法常遇到血管间隙和不连续性的问题。为解决细血管问题，Neto等人[<xref ref-type="bibr" rid="B8">8</xref>]通过结合形态重建前一阶段获得的粗略分割轮廓，创建了一个曲率图，从而获得了更精细的分割结果，并实现了一种由粗到细的血管分割方法。此外，许多研究人员尝试通过传统方法解决血管问题。考虑到病灶对血管分割的影响，Lam等人[<xref ref-type="bibr" rid="B9">9</xref>]提出了一种基于统计归一化的视网膜血管分割方法，该方法利用病灶、血管和背景的凹凸特征实现分割。</p>
      <p>与无监督方法相比，监督方法通过添加标记数据(通常由专家提供)来训练模型。Wu等人[<xref ref-type="bibr" rid="B10">10</xref>]提出的U-GAN使用视网膜血管自动分割模型作为GAN的生成器，同时将分割结果和真实值发送到判别网络。通过对抗训练不断优化分割结果。此外，一些研究人员通过重复U形结构来提高最终分割结果。Zhuang等人[<xref ref-type="bibr" rid="B11">11</xref>]采用了两个U形结构，并将原来的通道数拼接替换为U形网络内的像素值相加。第一个U形网络的解码器和第二个U形网络的编码器通过像素值相加连接，形成了LadderNet。鉴于血管在分割难度上存在差异，一些血管仍然难以准确分割。Wang等人[<xref ref-type="bibr" rid="B12">12</xref>]提出了HAnet，该网络由一个编码器和解码器组成，编码器用于提取特征，其中一个解码器获得粗略分割结果并将特征分为易于分割或难于分割，然后另外两个解码器专门用于进一步分割视网膜血管。然而，视网膜血管分割任务仍面临严峻挑战。首先，血管末梢血管极易被背景噪声淹没导致漏检。其次，传统卷积核的感受野有限，难以捕捉长距离的血管拓扑信息，导致在分割结果中频繁出现血管断裂现象。单独依靠传统的卷积块或对称的特征融合方式，往往无法在复杂背景下精确平衡局部细节与全局连通性，导致模型在处理细小血管时的鲁棒性受限。针对这些问题，本文提出一种基于大核卷积残差块和坐标注意力的迭代细化分割算法。通过LadderNet循环细化提取的特征图。通过引入大尺寸深度可分离卷积，显著提升了模型的有效感受野，增强了模型对血管长距离拓扑连通性的感知能力。此外，提出了一种非对称多尺度特征融合(AMSF)策略，根据模型不同深度特征层级的分布差异，在编解码路径的瓶颈处设计了两个功能互补的融合模块。其中，在AMSF-2模块中嵌入了坐标注意力(Coordinate attention) [<xref ref-type="bibr" rid="B13">13</xref>]机制，增强了模型的空间感知能力，提升了血管分割精度。</p>
    </sec>
    <sec id="sec3">
      <title>2. 实验设置</title>
      <sec id="sec3dot1">
        <title>2.1. 数据集</title>
        <p>为了验证本文提出的模型在视网膜血管分割任务中的有效性，我们在两个公开的临床标准数据集DRIVE和STARE上进行了验证。DRIVE数据集由一台CanonCR5非显微镜相机拍摄，包含40张分辨率为565 × 584的彩色眼底图像，划分为20张训练集和20张测试集。每张图像提供由第一位专家标注的分割掩模作为金标准。STARE数据集由美国佛罗里达大学的研究团队构建，包含20幅700 × 605的彩色眼底图像，图像这些图像由TopconTRV-50眼底相机采集得到涵盖了不同年龄、性别和眼部状况的患者群体，每幅图像由专家进行像素级标注。</p>
      </sec>
      <sec id="sec3dot2">
        <title>2.2. 数据预处理</title>
        <p>眼底图像往往存在光照不均、对比度低以及噪声干扰等问题，因此进行预处理。提取彩色图像的绿色通道(该通道血管与背景对比度最高)，并进行标准差归一化。采用限制对比度自适应直方图均衡化(CLAHE)算法提升血管末梢与背景的辨识度。将所有图像及其对应金标准统一中心裁剪或填充至固定尺寸512 × 512。通过Gamma变换进一步修正图像的亮度分布。为缓解过拟合并增强模型对不同血管形态的适应性，在训练阶段对训练样本实时施加随机增强，包括：水平/垂直翻转、随机旋转。</p>
      </sec>
      <sec id="sec3dot3">
        <title>2.3. 实验环境设置</title>
        <p>在实验中，使用AdamW作为优化器，权重衰减为0.05，动量为0.99，初始学习率为0.0001，采用余弦退火学习率调度。实验训练批大小为8，训练轮次为50轮，使用早停策略(early stopping = 8)。实验在12GB内存的NVIDIA GeForce RTX 3080 Ti上进行。</p>
      </sec>
    </sec>
    <sec id="sec4">
      <title>3. 模型结构</title>
      <p>本文提出了一种基于大核卷积残差块和坐标注意力的迭代细化分割网络TLadder-AMSF。首先，该方法通过第一个U形网络进行基础特征提取，该阶段采用编码器–解码器结构，利用大核卷积残差块LKCRB逐层提取空间特征并进行下采样，在瓶颈处通过AMSF-1模块捕获多尺度信息，随后通过上采样路径初步生成血管特征图。随后，特征进入第二个U形网络进行特征迭代精炼。在该阶段，编码器不仅接收内部的传递信息，还通过横向连接融合第一个U形网络对应层级的特征，实现跨路径的信息复用。在U形网络的最底层，通过集成坐标注意力机制的AMSF-2模块对深层特征进行空间校准与增强。最后，经过解码器的逐层还原，输出与原图尺寸一致的高精度血管分割结果。整体模型架构如<xref ref-type="fig" rid="fig1">图1</xref>所示。</p>
      <fig id="fig1">
        <label>Figure 1</label>
        <graphic xlink:href="https://html.hanspub.org/file/1544025-rId12.jpeg?20260407024914" />
      </fig>
      <p><bold>Figure 1.</bold>TLadder-AMSF structural diagram</p>
      <p><bold>图</bold><bold>1.</bold> TLadder-AMSF结构图</p>
      <sec id="sec4dot1">
        <title>3.1. 大核卷积残差块LKCRB</title>
        <fig id="fig2">
          <label>Figure 2</label>
          <graphic xlink:href="https://html.hanspub.org/file/1544025-rId13.jpeg?20260407024914" />
        </fig>
        <p><bold>Figure 2</bold><bold>.</bold>Large kernel convolution residual block structure diagram</p>
        <p><bold>图</bold><bold>2.</bold>大核卷积残差块结构图</p>
        <p>为了在保持卷积神经网络高效计算优势的同时，引入类似Transformer的长程建模能力，本文将网络的基础提取单元设计为大核卷积残差块LKCRB。该模块通过微观结构的优化，显著提升了模型对血管拓扑连通性的感知。传统的卷积神经网络如ResNet及其变体，通常受限于较小的卷积核(如3 × 3)，导致其有效感受野不足。在视网膜血管分割中，这种局限性使得模型难以捕捉长距离的血管拓扑特征，极易导致细长血管在视觉连通性上的断裂。虽然Vision Transformer具有强大的全局建模能力，但其计算开销巨大。因此，本文引入大核卷积残差块，旨在利用大尺寸深度可分离卷积模拟Transformer的长程依赖获取能力，同时保留卷积网络的归纳偏置和计算效率，从微观层面增强对血管连通性的保护。模块结构图如<xref ref-type="fig" rid="fig2">图2</xref>所示。</p>
        <p>对于第1层的输入特征<inline-formula><mml:math display="inline"><mml:mrow><mml:msub><mml:mi> x </mml:mi><mml:mi> l </mml:mi></mml:msub><mml:mo> ∈ </mml:mo><mml:msup><mml:mi> ℝ </mml:mi><mml:mrow><mml:mi> C </mml:mi><mml:mo> × </mml:mo><mml:mi> H </mml:mi><mml:mo> × </mml:mo><mml:mi> W </mml:mi></mml:mrow></mml:msup></mml:mrow></mml:math></inline-formula> ，其计算流程如下。</p>
        <p>模块起始处采用7 × 7的深度可分离卷积(Depthwise Convolution)。相比于传统的3 × 3卷积核，大尺寸卷积核有效扩大了感受野，使模型能捕捉更长跨度的血管特征，减少了由于局部信息不足导致的血管断裂。该过程如公式(1)所示：</p>
        <disp-formula id="FD1">
          <label>(1)</label>
          <mml:math display="inline">
            <mml:mrow>
              <mml:msub>
                <mml:mi>x</mml:mi>
                <mml:mrow>
                  <mml:mi>d</mml:mi>
                  <mml:mi>w</mml:mi>
                </mml:mrow>
              </mml:msub>
              <mml:mo>=</mml:mo>
              <mml:msub>
                <mml:mrow>
                  <mml:mtext>DWConv</mml:mtext>
                </mml:mrow>
                <mml:mrow>
                  <mml:mn>7</mml:mn>
                  <mml:mo>×</mml:mo>
                  <mml:mn>7</mml:mn>
                </mml:mrow>
              </mml:msub>
              <mml:mrow>
                <mml:mo>(</mml:mo>
                <mml:mrow>
                  <mml:msub>
                    <mml:mi>x</mml:mi>
                    <mml:mi>l</mml:mi>
                  </mml:msub>
                </mml:mrow>
                <mml:mo>)</mml:mo>
              </mml:mrow>
            </mml:mrow>
          </mml:math>
        </disp-formula>
        <p>其后，遵循“窄–宽–窄”的设计原则，首先通过层归一化(LayerNorm)稳定分布，随后利用1 × 1卷积将特征通道扩张4倍，经GELU激活函数处理后，再由另一个1 × 1卷积压缩回原始维度。该过程如公式(2)所示：</p>
        <disp-formula id="FD2">
          <label>(2)</label>
          <mml:math display="inline">
            <mml:mrow>
              <mml:msub>
                <mml:mi>x</mml:mi>
                <mml:mrow>
                  <mml:mi>u</mml:mi>
                  <mml:mi>p</mml:mi>
                </mml:mrow>
              </mml:msub>
              <mml:mo>=</mml:mo>
              <mml:mtext>GELU</mml:mtext>
              <mml:mrow>
                <mml:mo>(</mml:mo>
                <mml:mrow>
                  <mml:msub>
                    <mml:mrow>
                      <mml:mtext>PWConv</mml:mtext>
                    </mml:mrow>
                    <mml:mn>1</mml:mn>
                  </mml:msub>
                  <mml:mrow>
                    <mml:mo>(</mml:mo>
                    <mml:mrow>
                      <mml:mtext>LN</mml:mtext>
                      <mml:mrow>
                        <mml:mo>(</mml:mo>
                        <mml:mrow>
                          <mml:msub>
                            <mml:mi>x</mml:mi>
                            <mml:mrow>
                              <mml:mi>d</mml:mi>
                              <mml:mi>w</mml:mi>
                            </mml:mrow>
                          </mml:msub>
                        </mml:mrow>
                        <mml:mo>)</mml:mo>
                      </mml:mrow>
                    </mml:mrow>
                    <mml:mo>)</mml:mo>
                  </mml:mrow>
                </mml:mrow>
                <mml:mo>)</mml:mo>
              </mml:mrow>
            </mml:mrow>
          </mml:math>
        </disp-formula>
        <p>其中<inline-formula><mml:math display="inline"><mml:mrow><mml:msub><mml:mrow><mml:mtext> PWConv </mml:mtext></mml:mrow><mml:mn> 1 </mml:mn></mml:msub></mml:mrow></mml:math></inline-formula> 表示升维的点卷积操作。</p>
        <p>最后，在末端采用残差连接将输入与输出相加，确保深层网络训练时的梯度流稳定性，有效防止特征退化。该过程如公式(3)所示：</p>
        <disp-formula id="FD3">
          <label>(3)</label>
          <mml:math display="inline">
            <mml:mrow>
              <mml:msub>
                <mml:mi>x</mml:mi>
                <mml:mrow>
                  <mml:mi>l</mml:mi>
                  <mml:mo>+</mml:mo>
                  <mml:mn>1</mml:mn>
                </mml:mrow>
              </mml:msub>
              <mml:mo>=</mml:mo>
              <mml:msub>
                <mml:mi>x</mml:mi>
                <mml:mi>l</mml:mi>
              </mml:msub>
              <mml:mo>+</mml:mo>
              <mml:msub>
                <mml:mrow>
                  <mml:mtext>PWConv</mml:mtext>
                </mml:mrow>
                <mml:mn>2</mml:mn>
              </mml:msub>
              <mml:mrow>
                <mml:mo>(</mml:mo>
                <mml:mrow>
                  <mml:msub>
                    <mml:mi>x</mml:mi>
                    <mml:mrow>
                      <mml:mi>u</mml:mi>
                      <mml:mi>p</mml:mi>
                    </mml:mrow>
                  </mml:msub>
                </mml:mrow>
                <mml:mo>)</mml:mo>
              </mml:mrow>
            </mml:mrow>
          </mml:math>
        </disp-formula>
        <p>通过这种结构，模型在保持卷积归纳偏置的同时，获得了类似于Transformer的全局表征能力。</p>
      </sec>
      <sec id="sec4dot2">
        <title>3.2. 对称多尺度融合模块AMSF</title>
        <p>视网膜血管具有极高的尺度动态性，主干血管与毛细血管末梢在图像中的像素表现跨度显著。单一感受野的卷积核难以同时有效捕捉所有尺度的血管。常规的U型网络在瓶颈处通常采用对称或单一尺度的结构，这导致模型在第一阶段容易丢失微小血管特征，而在第二阶段又缺乏对全局背景的有效抑制。虽然多尺度特征融合是常见解决方案，但在网络不同深度(或不同处理阶段)，对多尺度信息的需求应有侧重。为此，我们设计了非对称多尺度融合模块，采用非对称策略，分别嵌入在两个阶段的瓶颈处。在第一个阶段，利用小扩张率组合“广泛探测”所有可能的血管候选特征，避免早期丢失微小血管信号；在第二个阶段，在更丰富的上下文和初步分割线索基础上，利用大扩张率与全局路径进行“精准聚焦”和融合，以区分真实血管与噪声，并修正细节。这种设计逻辑确保了模型在不同迭代深度下能够自适应地平衡局部细节与全局语义。两个AMSF模块具有不同的结构，如<xref ref-type="fig" rid="fig3">图3</xref>所示。</p>
        <p>设输入特征图为<inline-formula><mml:math display="inline"><mml:mrow><mml:msub><mml:mi> F </mml:mi><mml:mrow><mml:mi> i </mml:mi><mml:mi> n </mml:mi></mml:mrow></mml:msub><mml:mo> ∈ </mml:mo><mml:msup><mml:mi> ℝ </mml:mi><mml:mrow><mml:msup><mml:mi> H </mml:mi><mml:mo> ′ </mml:mo></mml:msup><mml:mo> × </mml:mo><mml:msup><mml:mi> W </mml:mi><mml:mo> ′ </mml:mo></mml:msup><mml:mo> × </mml:mo><mml:msup><mml:mi> C </mml:mi><mml:mo> ′ </mml:mo></mml:msup></mml:mrow></mml:msup></mml:mrow></mml:math></inline-formula> ，其计算流程如下。</p>
        <p>首先，利用AMSF-1 (即第一阶段底部)，该模块采用并行的扩张卷积路径，扩张率(dilation rate)设置为较小的<inline-formula><mml:math display="inline"><mml:mrow><mml:mi> r </mml:mi><mml:mo> ∈ </mml:mo><mml:mrow><mml:mo> { </mml:mo><mml:mrow><mml:mn> 1 </mml:mn><mml:mo> , </mml:mo><mml:mn> 2 </mml:mn><mml:mo> , </mml:mo><mml:mn> 4 </mml:mn></mml:mrow><mml:mo> } </mml:mo></mml:mrow></mml:mrow></mml:math></inline-formula> 。这种设计侧重于在相对局部的范围内，以不同感受野捕获血管特征，确保基础特征中包含了从细小到中等粗细血管的响应。该过程如公式(4)所示：</p>
        <disp-formula id="FD4">
          <label>(4)</label>
          <mml:math display="inline">
            <mml:mrow>
              <mml:msubsup>
                <mml:mi>F</mml:mi>
                <mml:mrow>
                  <mml:mtext>branch</mml:mtext>
                </mml:mrow>
                <mml:mi>r</mml:mi>
              </mml:msubsup>
              <mml:mo>=</mml:mo>
              <mml:msub>
                <mml:mrow>
                  <mml:mtext>Conv</mml:mtext>
                </mml:mrow>
                <mml:mrow>
                  <mml:mn>3</mml:mn>
                  <mml:mo>×</mml:mo>
                  <mml:mn>3</mml:mn>
                  <mml:mo>,</mml:mo>
                  <mml:mtext>dilation</mml:mtext>
                  <mml:mo>=</mml:mo>
                  <mml:mi>r</mml:mi>
                </mml:mrow>
              </mml:msub>
              <mml:mrow>
                <mml:mo>(</mml:mo>
                <mml:mrow>
                  <mml:msub>
                    <mml:mi>F</mml:mi>
                    <mml:mrow>
                      <mml:mi>i</mml:mi>
                      <mml:mi>n</mml:mi>
                    </mml:mrow>
                  </mml:msub>
                </mml:mrow>
                <mml:mo>)</mml:mo>
              </mml:mrow>
              <mml:mo>,</mml:mo>
              <mml:mtext>
                 
              </mml:mtext>
              <mml:mi>r</mml:mi>
              <mml:mo>∈</mml:mo>
              <mml:mn>1</mml:mn>
              <mml:mo>,</mml:mo>
              <mml:mn>2</mml:mn>
              <mml:mo>,</mml:mo>
              <mml:mn>4</mml:mn>
            </mml:mrow>
          </mml:math>
        </disp-formula>
        <p>随后，各分支特征通过拼接(Concatenation)和1 × 1卷积进行融合。该过程如公式(5)所示。</p>
        <disp-formula id="FD5">
          <label>(5)</label>
          <mml:math display="inline">
            <mml:mrow>
              <mml:msub>
                <mml:mi>F</mml:mi>
                <mml:mrow>
                  <mml:mtext>fusion1</mml:mtext>
                </mml:mrow>
              </mml:msub>
              <mml:mo>=</mml:mo>
              <mml:msub>
                <mml:mrow>
                  <mml:mtext>Conv</mml:mtext>
                </mml:mrow>
                <mml:mrow>
                  <mml:mn>1</mml:mn>
                  <mml:mo>×</mml:mo>
                  <mml:mn>1</mml:mn>
                </mml:mrow>
              </mml:msub>
              <mml:mrow>
                <mml:mo>(</mml:mo>
                <mml:mrow>
                  <mml:mtext>Concat</mml:mtext>
                  <mml:mrow>
                    <mml:mo>(</mml:mo>
                    <mml:mrow>
                      <mml:msubsup>
                        <mml:mi>F</mml:mi>
                        <mml:mrow>
                          <mml:mtext>branch</mml:mtext>
                        </mml:mrow>
                        <mml:mn>1</mml:mn>
                      </mml:msubsup>
                      <mml:mo>,</mml:mo>
                      <mml:msubsup>
                        <mml:mi>F</mml:mi>
                        <mml:mrow>
                          <mml:mtext>branch</mml:mtext>
                        </mml:mrow>
                        <mml:mn>2</mml:mn>
                      </mml:msubsup>
                      <mml:mo>,</mml:mo>
                      <mml:msubsup>
                        <mml:mi>F</mml:mi>
                        <mml:mrow>
                          <mml:mtext>branch</mml:mtext>
                        </mml:mrow>
                        <mml:mn>4</mml:mn>
                      </mml:msubsup>
                    </mml:mrow>
                    <mml:mo>)</mml:mo>
                  </mml:mrow>
                </mml:mrow>
                <mml:mo>)</mml:mo>
              </mml:mrow>
            </mml:mrow>
          </mml:math>
        </disp-formula>
        <p>其次，利用AMSF-2 (即第二阶段底部)融合更广阔的上下文和全局信息。它包含三个并行分支，使用更大的扩张率<inline-formula><mml:math display="inline"><mml:mrow><mml:mi> r </mml:mi><mml:mo> ∈ </mml:mo><mml:mrow><mml:mo> { </mml:mo><mml:mrow><mml:mn> 6 </mml:mn><mml:mo> , </mml:mo><mml:mn> 12 </mml:mn></mml:mrow><mml:mo> } </mml:mo></mml:mrow></mml:mrow></mml:math></inline-formula> ，以覆盖图像中更广阔的区域，建模血管的远程空间关系。通过全局平均池化(GAP)和1 × 1卷积获取图像级的语义上下文信息<inline-formula><mml:math display="inline"><mml:mrow><mml:msub><mml:mi> F </mml:mi><mml:mrow><mml:mi> g </mml:mi><mml:mi> a </mml:mi><mml:mi> p </mml:mi></mml:mrow></mml:msub></mml:mrow></mml:math></inline-formula> 。通过等映射分支，保留原始特征<inline-formula><mml:math display="inline"><mml:mrow><mml:msub><mml:mi> F </mml:mi><mml:mrow><mml:mi> i </mml:mi><mml:mi> n </mml:mi></mml:mrow></mml:msub></mml:mrow></mml:math></inline-formula> ，确保信息流的稳定性。各分支特征经适当调整后相加融合，该过程如公式(6)所示。</p>
        <disp-formula id="FD6">
          <label>(6)</label>
          <mml:math display="inline">
            <mml:mrow>
              <mml:msub>
                <mml:mi>F</mml:mi>
                <mml:mrow>
                  <mml:mtext>fusion2</mml:mtext>
                </mml:mrow>
              </mml:msub>
              <mml:mo>=</mml:mo>
              <mml:msub>
                <mml:mrow>
                  <mml:mtext>Conv</mml:mtext>
                </mml:mrow>
                <mml:mrow>
                  <mml:mn>1</mml:mn>
                  <mml:mo>×</mml:mo>
                  <mml:mn>1</mml:mn>
                </mml:mrow>
              </mml:msub>
              <mml:mrow>
                <mml:mo>(</mml:mo>
                <mml:mrow>
                  <mml:msub>
                    <mml:mi>F</mml:mi>
                    <mml:mrow>
                      <mml:mi>i</mml:mi>
                      <mml:mi>n</mml:mi>
                    </mml:mrow>
                  </mml:msub>
                </mml:mrow>
                <mml:mo>)</mml:mo>
              </mml:mrow>
              <mml:mo>+</mml:mo>
              <mml:mstyle displaystyle="true">
                <mml:munder>
                  <mml:mo>∑</mml:mo>
                  <mml:mrow>
                    <mml:mtext>r</mml:mtext>
                    <mml:mo>∈</mml:mo>
                    <mml:mtext>6</mml:mtext>
                    <mml:mo>,</mml:mo>
                    <mml:mtext>12</mml:mtext>
                  </mml:mrow>
                </mml:munder>
                <mml:mrow>
                  <mml:msub>
                    <mml:mrow>
                      <mml:mtext>Conv</mml:mtext>
                    </mml:mrow>
                    <mml:mrow>
                      <mml:mtext>3</mml:mtext>
                      <mml:mo>×</mml:mo>
                      <mml:mtext>3</mml:mtext>
                      <mml:mo>,</mml:mo>
                      <mml:mtext>dilation</mml:mtext>
                      <mml:mo>=</mml:mo>
                      <mml:mtext>r</mml:mtext>
                    </mml:mrow>
                  </mml:msub>
                </mml:mrow>
              </mml:mstyle>
              <mml:mrow>
                <mml:mo>(</mml:mo>
                <mml:mrow>
                  <mml:msub>
                    <mml:mi>F</mml:mi>
                    <mml:mrow>
                      <mml:mi>i</mml:mi>
                      <mml:mi>n</mml:mi>
                    </mml:mrow>
                  </mml:msub>
                </mml:mrow>
                <mml:mo>)</mml:mo>
              </mml:mrow>
              <mml:mo>+</mml:mo>
              <mml:mtext>Upsample</mml:mtext>
              <mml:mrow>
                <mml:mo>(</mml:mo>
                <mml:mrow>
                  <mml:msub>
                    <mml:mrow>
                      <mml:mtext>Conv</mml:mtext>
                    </mml:mrow>
                    <mml:mrow>
                      <mml:mtext>1</mml:mtext>
                      <mml:mo>×</mml:mo>
                      <mml:mtext>1</mml:mtext>
                    </mml:mrow>
                  </mml:msub>
                  <mml:mrow>
                    <mml:mo>(</mml:mo>
                    <mml:mrow>
                      <mml:msub>
                        <mml:mi>F</mml:mi>
                        <mml:mrow>
                          <mml:mi>g</mml:mi>
                          <mml:mi>a</mml:mi>
                          <mml:mi>p</mml:mi>
                        </mml:mrow>
                      </mml:msub>
                    </mml:mrow>
                    <mml:mo>)</mml:mo>
                  </mml:mrow>
                </mml:mrow>
                <mml:mo>)</mml:mo>
              </mml:mrow>
            </mml:mrow>
          </mml:math>
        </disp-formula>
        <p>关键的是，在AMSF-2中，融合后的特征<inline-formula><mml:math display="inline"><mml:mrow><mml:msub><mml:mi> F </mml:mi><mml:mrow><mml:mtext> fusion </mml:mtext><mml:mn> 2 </mml:mn></mml:mrow></mml:msub></mml:mrow></mml:math></inline-formula> 将被送入一个坐标注意力模块(CA)进行进一步的空间感知增强，即<inline-formula><mml:math display="inline"><mml:mrow><mml:msub><mml:mi> F </mml:mi><mml:mrow><mml:mtext> out </mml:mtext></mml:mrow></mml:msub><mml:mo> = </mml:mo><mml:mtext> CA </mml:mtext><mml:mrow><mml:mo> ( </mml:mo><mml:mrow><mml:msub><mml:mi> F </mml:mi><mml:mrow><mml:mtext> fusion </mml:mtext><mml:mn> 2 </mml:mn></mml:mrow></mml:msub></mml:mrow><mml:mo> ) </mml:mo></mml:mrow></mml:mrow></mml:math></inline-formula> 。这种非对称设计——AMSF-1“广撒网”、AMSF-2“精加工”——构成了网络性能跃升的核心枢纽。</p>
        <fig id="fig3">
          <label>Figure 3</label>
          <graphic xlink:href="https://html.hanspub.org/file/1544025-rId44.jpeg?20260407024914" />
        </fig>
        <p><bold>Figure</bold><bold>3.</bold>Asymmetric multi-scale fusion module structure diagram</p>
        <p><bold>图</bold><bold>3</bold><bold>.</bold> 非对称多尺度融合模块结构图</p>
      </sec>
      <sec id="sec4dot3">
        <title>3.3. 坐标注意力CA</title>
        <p>在复杂的眼底图像中，血管与背景(如视盘、病变区域)的纹理有时可能相似，仅依赖通道注意力或局部上下文容易导致误判。虽然通道注意力机制(如SE模块)能增强重要通道的响应，但它通过全局平均池化压缩了空间信息，导致模型在分割细小血管时无法感知“血管在哪里”。此外，血管的本质是具有强烈方向性和空间位置规律的管状结构。例如，主血管通常从视盘放射状发出。因此，我们引入坐标注意力机制CA [<xref ref-type="bibr" rid="B13">13</xref>]，其通过沿水平和垂直两个坐标轴进行空间编码，将精确的空间位置信息(坐标信息)编码到通道注意力中，使模型不仅知道“关注哪些特征通道”，还能知道“在空间的哪个位置加强或抑制”，从而更精准地定位走向各异的血管，抑制形态不规则的非血管噪声。该模块结构如<xref ref-type="fig" rid="fig4">图4</xref>所示。</p>
        <fig id="fig4">
          <label>Figure 4</label>
          <graphic xlink:href="https://html.hanspub.org/file/1544025-rId45.jpeg?20260407024915" />
        </fig>
        <p><bold>Figure</bold><bold>4.</bold> Coordinate attention structure diagram</p>
        <p><bold>图</bold><bold>4.</bold> 坐标注意力结构图</p>
        <p>给定AMSF-2输出的特征<inline-formula><mml:math display="inline"><mml:mrow><mml:mtext> X </mml:mtext><mml:mo> ∈ </mml:mo><mml:msup><mml:mi> ℝ </mml:mi><mml:mrow><mml:mtext> H </mml:mtext><mml:mo> × </mml:mo><mml:mtext> W </mml:mtext><mml:mo> × </mml:mo><mml:mtext> C </mml:mtext></mml:mrow></mml:msup></mml:mrow></mml:math></inline-formula> ，TCA模块通过以下流程生成空间感知的注意力权重。</p>
        <p>首先，进行方向感知的特征编码，即分别沿水平(X)和垂直(Y)方向进行一维全局平均池化，生成一对方向感知的特征向量，其计算流程如下：</p>
        <disp-formula id="FD7">
          <label>(7)</label>
          <mml:math display="inline">
            <mml:mrow>
              <mml:msubsup>
                <mml:mi>z</mml:mi>
                <mml:mi>c</mml:mi>
                <mml:mi>h</mml:mi>
              </mml:msubsup>
              <mml:mrow>
                <mml:mo>(</mml:mo>
                <mml:mi>h</mml:mi>
                <mml:mo>)</mml:mo>
              </mml:mrow>
              <mml:mo>=</mml:mo>
              <mml:mfrac>
                <mml:mn>1</mml:mn>
                <mml:mi>W</mml:mi>
              </mml:mfrac>
              <mml:mstyle displaystyle="true">
                <mml:munder>
                  <mml:mo>∑</mml:mo>
                  <mml:mrow>
                    <mml:mn>0</mml:mn>
                    <mml:mo>≤</mml:mo>
                    <mml:mi>i</mml:mi>
                    <mml:mo>&lt;</mml:mo>
                    <mml:mi>W</mml:mi>
                  </mml:mrow>
                </mml:munder>
                <mml:mrow>
                  <mml:msub>
                    <mml:mi>x</mml:mi>
                    <mml:mi>c</mml:mi>
                  </mml:msub>
                </mml:mrow>
              </mml:mstyle>
              <mml:mrow>
                <mml:mo>(</mml:mo>
                <mml:mrow>
                  <mml:mi>h</mml:mi>
                  <mml:mo>,</mml:mo>
                  <mml:mi>i</mml:mi>
                </mml:mrow>
                <mml:mo>)</mml:mo>
              </mml:mrow>
            </mml:mrow>
          </mml:math>
        </disp-formula>
        <disp-formula id="FD8">
          <label>(8)</label>
          <mml:math display="inline">
            <mml:mrow>
              <mml:msubsup>
                <mml:mi>z</mml:mi>
                <mml:mi>c</mml:mi>
                <mml:mi>w</mml:mi>
              </mml:msubsup>
              <mml:mrow>
                <mml:mo>(</mml:mo>
                <mml:mi>w</mml:mi>
                <mml:mo>)</mml:mo>
              </mml:mrow>
              <mml:mo>=</mml:mo>
              <mml:mfrac>
                <mml:mn>1</mml:mn>
                <mml:mi>H</mml:mi>
              </mml:mfrac>
              <mml:mstyle displaystyle="true">
                <mml:munder>
                  <mml:mo>∑</mml:mo>
                  <mml:mrow>
                    <mml:mn>0</mml:mn>
                    <mml:mo>≤</mml:mo>
                    <mml:mi>j</mml:mi>
                    <mml:mo>&lt;</mml:mo>
                    <mml:mi>H</mml:mi>
                  </mml:mrow>
                </mml:munder>
                <mml:mrow>
                  <mml:msub>
                    <mml:mi>x</mml:mi>
                    <mml:mi>c</mml:mi>
                  </mml:msub>
                </mml:mrow>
              </mml:mstyle>
              <mml:mrow>
                <mml:mo>(</mml:mo>
                <mml:mrow>
                  <mml:mi>j</mml:mi>
                  <mml:mo>,</mml:mo>
                  <mml:mi>w</mml:mi>
                </mml:mrow>
                <mml:mo>)</mml:mo>
              </mml:mrow>
            </mml:mrow>
          </mml:math>
        </disp-formula>
        <p>其中，<inline-formula><mml:math display="inline"><mml:mrow><mml:msup><mml:mi> z </mml:mi><mml:mi> h </mml:mi></mml:msup><mml:mo> ∈ </mml:mo><mml:msup><mml:mi> ℝ </mml:mi><mml:mrow><mml:mi> C </mml:mi><mml:mo> × </mml:mo><mml:mi> H </mml:mi></mml:mrow></mml:msup></mml:mrow></mml:math></inline-formula> ，<inline-formula><mml:math display="inline"><mml:mrow><mml:mo></mml:mo><mml:msup><mml:mi> z </mml:mi><mml:mi> w </mml:mi></mml:msup><mml:mo> ∈ </mml:mo><mml:msup><mml:mi> ℝ </mml:mi><mml:mrow><mml:mi> C </mml:mi><mml:mo> × </mml:mo><mml:mi> W </mml:mi></mml:mrow></mml:msup></mml:mrow></mml:math></inline-formula> 。</p>
        <p>其次，进行坐标信息生成与融合：将两个方向的特征拼接后，通过一个共享的1 × 1卷积<italic>f</italic>和激活函数(如Sigmoid)进行非线性变换，生成中间特征图，再分解为两个独立的方向注意力权重张量，其计算流程如下：</p>
        <disp-formula id="FD9">
          <label>(9)</label>
          <mml:math display="inline">
            <mml:mrow>
              <mml:mi>f</mml:mi>
              <mml:mo>=</mml:mo>
              <mml:mi>δ</mml:mi>
              <mml:mrow>
                <mml:mo>(</mml:mo>
                <mml:mrow>
                  <mml:msub>
                    <mml:mrow>
                      <mml:mtext>Conv</mml:mtext>
                    </mml:mrow>
                    <mml:mrow>
                      <mml:mn>1</mml:mn>
                      <mml:mo>×</mml:mo>
                      <mml:mn>1</mml:mn>
                    </mml:mrow>
                  </mml:msub>
                  <mml:mrow>
                    <mml:mo>(</mml:mo>
                    <mml:mrow>
                      <mml:mtext>Concat</mml:mtext>
                      <mml:mrow>
                        <mml:mo>(</mml:mo>
                        <mml:mrow>
                          <mml:msup>
                            <mml:mi>z</mml:mi>
                            <mml:mi>h</mml:mi>
                          </mml:msup>
                          <mml:mo>,</mml:mo>
                          <mml:msup>
                            <mml:mi>z</mml:mi>
                            <mml:mi>w</mml:mi>
                          </mml:msup>
                        </mml:mrow>
                        <mml:mo>)</mml:mo>
                      </mml:mrow>
                    </mml:mrow>
                    <mml:mo>)</mml:mo>
                  </mml:mrow>
                </mml:mrow>
                <mml:mo>)</mml:mo>
              </mml:mrow>
            </mml:mrow>
          </mml:math>
        </disp-formula>
        <disp-formula id="FD10">
          <label>(10)</label>
          <mml:math display="inline">
            <mml:mrow>
              <mml:msup>
                <mml:mi>g</mml:mi>
                <mml:mi>h</mml:mi>
              </mml:msup>
              <mml:mo>=</mml:mo>
              <mml:mi>σ</mml:mi>
              <mml:mrow>
                <mml:mo>(</mml:mo>
                <mml:mrow>
                  <mml:msubsup>
                    <mml:mrow>
                      <mml:mtext>Conv</mml:mtext>
                    </mml:mrow>
                    <mml:mrow>
                      <mml:mn>1</mml:mn>
                      <mml:mo>×</mml:mo>
                      <mml:mn>1</mml:mn>
                    </mml:mrow>
                    <mml:mi>h</mml:mi>
                  </mml:msubsup>
                  <mml:mrow>
                    <mml:mo>(</mml:mo>
                    <mml:mi>f</mml:mi>
                    <mml:mo>)</mml:mo>
                  </mml:mrow>
                </mml:mrow>
                <mml:mo>)</mml:mo>
              </mml:mrow>
              <mml:mo>,</mml:mo>
              <mml:mtext>
                 
              </mml:mtext>
              <mml:msup>
                <mml:mi>g</mml:mi>
                <mml:mi>w</mml:mi>
              </mml:msup>
              <mml:mo>=</mml:mo>
              <mml:mi>σ</mml:mi>
              <mml:mrow>
                <mml:mo>(</mml:mo>
                <mml:mrow>
                  <mml:msubsup>
                    <mml:mrow>
                      <mml:mtext>Conv</mml:mtext>
                    </mml:mrow>
                    <mml:mrow>
                      <mml:mn>1</mml:mn>
                      <mml:mo>×</mml:mo>
                      <mml:mn>1</mml:mn>
                    </mml:mrow>
                    <mml:mi>w</mml:mi>
                  </mml:msubsup>
                  <mml:mrow>
                    <mml:mo>(</mml:mo>
                    <mml:mi>f</mml:mi>
                    <mml:mo>)</mml:mo>
                  </mml:mrow>
                </mml:mrow>
                <mml:mo>)</mml:mo>
              </mml:mrow>
            </mml:mrow>
          </mml:math>
        </disp-formula>
        <p>其中，<inline-formula><mml:math display="inline"><mml:mrow><mml:msup><mml:mi> g </mml:mi><mml:mi> h </mml:mi></mml:msup><mml:mo> ∈ </mml:mo><mml:msup><mml:mi> ℝ </mml:mi><mml:mrow><mml:mi> C </mml:mi><mml:mo> × </mml:mo><mml:mi> H </mml:mi><mml:mo> × </mml:mo><mml:mn> 1 </mml:mn></mml:mrow></mml:msup></mml:mrow></mml:math></inline-formula> ，<inline-formula><mml:math display="inline"><mml:mrow><mml:msup><mml:mi> g </mml:mi><mml:mi> w </mml:mi></mml:msup><mml:mo> ∈ </mml:mo><mml:msup><mml:mi> ℝ </mml:mi><mml:mrow><mml:mi> C </mml:mi><mml:mo> × </mml:mo><mml:mn> 1 </mml:mn><mml:mo> × </mml:mo><mml:mi> W </mml:mi></mml:mrow></mml:msup></mml:mrow></mml:math></inline-formula> ，<inline-formula><mml:math display="inline"><mml:mi> δ </mml:mi></mml:math></inline-formula> 和<inline-formula><mml:math display="inline"><mml:mi> σ </mml:mi></mml:math></inline-formula> 分别为非线性激活函数。</p>
        <p>最后，进行特征重校准，将生成的水平与垂直注意力权重与原始输入特征逐元素相乘，实现对特征图的空间位置自适应校准，其计算流程如下：</p>
        <disp-formula id="FD11">
          <label>(11)</label>
          <mml:math display="inline">
            <mml:mrow>
              <mml:msub>
                <mml:mi>y</mml:mi>
                <mml:mi>c</mml:mi>
              </mml:msub>
              <mml:mrow>
                <mml:mo>(</mml:mo>
                <mml:mrow>
                  <mml:mi>i</mml:mi>
                  <mml:mo>,</mml:mo>
                  <mml:mi>j</mml:mi>
                </mml:mrow>
                <mml:mo>)</mml:mo>
              </mml:mrow>
              <mml:mo>=</mml:mo>
              <mml:msub>
                <mml:mi>x</mml:mi>
                <mml:mi>c</mml:mi>
              </mml:msub>
              <mml:mrow>
                <mml:mo>(</mml:mo>
                <mml:mrow>
                  <mml:mi>i</mml:mi>
                  <mml:mo>,</mml:mo>
                  <mml:mi>j</mml:mi>
                </mml:mrow>
                <mml:mo>)</mml:mo>
              </mml:mrow>
              <mml:mo>×</mml:mo>
              <mml:msubsup>
                <mml:mi>g</mml:mi>
                <mml:mi>c</mml:mi>
                <mml:mi>h</mml:mi>
              </mml:msubsup>
              <mml:mrow>
                <mml:mo>(</mml:mo>
                <mml:mi>i</mml:mi>
                <mml:mo>)</mml:mo>
              </mml:mrow>
              <mml:mo>×</mml:mo>
              <mml:msubsup>
                <mml:mi>g</mml:mi>
                <mml:mi>c</mml:mi>
                <mml:mi>w</mml:mi>
              </mml:msubsup>
              <mml:mrow>
                <mml:mo>(</mml:mo>
                <mml:mi>j</mml:mi>
                <mml:mo>)</mml:mo>
              </mml:mrow>
            </mml:mrow>
          </mml:math>
        </disp-formula>
        <p>输出<inline-formula><mml:math display="inline"><mml:mrow><mml:mi> Y </mml:mi><mml:mo> ∈ </mml:mo><mml:msup><mml:mi> ℝ </mml:mi><mml:mrow><mml:mi> H </mml:mi><mml:mo> × </mml:mo><mml:mi> W </mml:mi><mml:mo> × </mml:mo><mml:mi> C </mml:mi></mml:mrow></mml:msup></mml:mrow></mml:math></inline-formula> 即为经过空间坐标信息增强的特征。</p>
        <p>通过这一机制，CA模块使网络能够捕捉“在特定行和列上，哪些通道的特征是重要的”，从而显著增强了对血管走向的敏感性，在血管交叉、边界模糊及视盘附近等挑战区域表现出更精确的分割能力。</p>
      </sec>
    </sec>
    <sec id="sec5">
      <title>4. 实验结果</title>
      <sec id="sec5dot1">
        <title>4.1. 对比试验</title>
        <p>为了验证本文方法的优越性，我们将本文提出的完整模型与近年来在视网膜血管分割领域具有代表性的先进方法[<xref ref-type="bibr" rid="B11">11</xref>][<xref ref-type="bibr" rid="B14">14</xref>]-[<xref ref-type="bibr" rid="B18">18</xref>]在DRIVE和STARE数据集上进行了全面对比。</p>
        <p>由表1可知，在STARE数据集上，本文提出的方法在多项关键评价指标上均表现优异。本文方法的Se达到了0.8264，较原始LadderNet提升了约4.48%。这主要归功于大核卷积残差块LKCRB的大感受野特征提取以及AMSF模块对多尺度血管特征的充分捕获，使得模型能够有效识别对比度极低的微细血管末梢。此外，在准确率(Acc)和Auc上，本文方法分别达到了0.9625和0.9848，均位居所有对比算法之首。尽管灵敏度大幅提升，本文方法的特异性(Sp)仍保持在0.9812的高位，证明了坐标注意力(CA)的引入能够有效利用空间坐标信息校准特征权重，在增强血管响应的同时，精准抑制了视盘及病变区域的类血管伪影。</p>
        <p><bold>Table</bold><bold>1</bold><bold>.</bold>Comparative experimental results on the DRIVE dataset</p>
        <p><bold>表</bold><bold>1</bold><bold>.</bold> 在DRIVE数据集上的对比实验结果</p>
        <table-wrap id="tbl1">
          <label>Table 1</label>
          <table>
            <tbody>
              <tr>
                <td>方法</td>
                <td>Se</td>
                <td>Sp</td>
                <td>Acc</td>
                <td>Auc</td>
              </tr>
              <tr>
                <td>U-Net</td>
                <td>0.7991</td>
                <td>0.9792</td>
                <td>0.9562</td>
                <td>0.9792</td>
              </tr>
              <tr>
                <td>AAU-Net</td>
                <td>0.8034</td>
                <td>0.9708</td>
                <td>0.9495</td>
                <td>0.9688</td>
              </tr>
              <tr>
                <td>LadderNet</td>
                <td>0.7816</td>
                <td>0.9789</td>
                <td>0.9538</td>
                <td>0.9766</td>
              </tr>
              <tr>
                <td>IterMiUNet</td>
                <td>0.7854</td>
                <td>0.9784</td>
                <td>0.9538</td>
                <td>0.9755</td>
              </tr>
              <tr>
                <td>DenseUNet</td>
                <td>0.7564</td>
                <td>0.9845</td>
                <td>0.9555</td>
                <td>0.9775</td>
              </tr>
              <tr>
                <td>AttUNet</td>
                <td>0.8037</td>
                <td>0.9778</td>
                <td>0.9556</td>
                <td>0.9792</td>
              </tr>
              <tr>
                <td>本文方法</td>
                <td>0.8264</td>
                <td>0.9812</td>
                <td>0.9625</td>
                <td>0.9848</td>
              </tr>
            </tbody>
          </table>
        </table-wrap>
        <p>如表2所示，在更具挑战性的STARE数据集上，本文方法同样展现出了卓越的分割性能。本文方法的Se指标达到了0.8356，显著优于AttUNet (0.8123)和原始LadderNet (0.7958)。这表明通过集成大尺寸卷积核的LKCRB与AMSF结构，模型能够更有效地应对STARE数据集中细小血管浓密且对比度低的问题。STARE数据集中包含较多的病理噪声，本文方法通过坐标注意力(CA)对水平与垂直空间信息进行编码，使Sp指标保持在0.9805的高水平，能够精准区分血管与类血管病变。Acc (0.9662)与Auc (0.9885)均为全表最高值，证明了本文方法在处理复杂病理背景下的眼底图像时，具有极高的准确性与泛化能力。</p>
        <p><bold>Table</bold><bold>2</bold><bold>.</bold>Comparative experimental results on the STARE dataset</p>
        <p><bold>表</bold><bold>2</bold><bold>.</bold> 在STARE数据集上的对比实验结果</p>
        <table-wrap id="tbl2">
          <label>Table 2</label>
          <table>
            <tbody>
              <tr>
                <td>方法</td>
                <td>Se</td>
                <td>Sp</td>
                <td>Acc</td>
                <td>Auc</td>
              </tr>
              <tr>
                <td>U-Net</td>
                <td>0.7845</td>
                <td>0.9754</td>
                <td>0.9542</td>
                <td>0.9782</td>
              </tr>
              <tr>
                <td>AAU-Net</td>
                <td>0.7921</td>
                <td>0.9712</td>
                <td>0.9510</td>
                <td>0.9782</td>
              </tr>
              <tr>
                <td>LadderNet</td>
                <td>0.7958</td>
                <td>0.9734</td>
                <td>0.9545</td>
                <td>0.9791</td>
              </tr>
              <tr>
                <td>IterMiUNet</td>
                <td>0.8012</td>
                <td>0.9721</td>
                <td>0.9552</td>
                <td>0.9802</td>
              </tr>
              <tr>
                <td>DenseUNet</td>
                <td>0.7756</td>
                <td>0.9821</td>
                <td>0.9584</td>
                <td>0.9815</td>
              </tr>
              <tr>
                <td>AttUNet</td>
                <td>0.8123</td>
                <td>0.9765</td>
                <td>0.9591</td>
                <td>0.9824</td>
              </tr>
              <tr>
                <td>本文方法</td>
                <td>0.8356</td>
                <td>0.9805</td>
                <td>0.9662</td>
                <td>0.9885</td>
              </tr>
            </tbody>
          </table>
        </table-wrap>
        <p>为了进一步直观验证本文方法的分割性能，<xref ref-type="fig" rid="fig5">图5</xref>展示了本文方法与U-Net、LadderNet的可视化对比结果及局部放大效果，我们选取了具有不同血管形态与背景复杂度的代表性样本进行展示。观察第一组和第二组局部放大图可以发现，由于视网膜末梢血管与其背景的对比度极低，U-Net和LadderNet在处理纤细分支时均出现了明显的特征丢失与拓扑断裂现象。而本文方法得益于大核卷积残差块LKCRB提供的大尺寸感受野以及AMSF模块的多尺度特征融合，能够精准捕捉到对比度极低的微细血管，并保持了血管树结构的逻辑连通性，分割结果最接近专家标注(标签)。在血管密集分布及靠近视盘的区域，传统算法极易受到背景亮度不均或组织干扰，导致分割边缘模糊。本文方法生成的分割图边缘更加锐利且平滑，这证明了坐标注意力(CA)通过水平与垂直方向的空间编码，实现了对血管位置的精准校准，从而有效抑制了非血管区域的误判噪声。通过对比观察，本文方法在处理血管交叉与分支点处展现出更强的形态学还原能力，避免了LadderNet中常见的像素粘连问题。这种高保真度的分割效果，为后续临床上进行血管直径测量和扭曲度分析提供了可靠的数据支撑。整体而言，可视化结果与前述量化指标相互印证，表明本文方法在提升血管检出敏感性的同时，亦保持了较好的结构一致性与细节还原能力。</p>
        <fig id="fig5">
          <label>Figure 5</label>
          <graphic xlink:href="https://html.hanspub.org/file/1544025-rId72.jpeg?20260407024916" />
        </fig>
        <p><bold>Figure</bold><bold>5.</bold> Segmentation result visualization</p>
        <p><bold>图</bold><bold>5.</bold> 分割结果可视化图</p>
      </sec>
      <sec id="sec5dot2">
        <title>4.2. 消融实验</title>
        <p>为了验证本文提出的各个模块对视网膜血管分割性能的具体贡献，我们在DRIVE数据集上进行了消融实验，结果如表3所示。</p>
        <p><bold>Table</bold><bold>3</bold><bold>.</bold>Ablation experiment results on the DRIVE dataset</p>
        <p><bold>表</bold><bold>3.</bold>在DRIVE数据集上的消融实验结果</p>
        <table-wrap id="tbl3">
          <label>Table 3</label>
          <table>
            <tbody>
              <tr>
                <td colspan="4">方法设计</td>
                <td colspan="4">血管分割</td>
              </tr>
              <tr>
                <td>Baseline</td>
                <td>LKCRB</td>
                <td>AMSF</td>
                <td>CA</td>
                <td>Se</td>
                <td>Sp</td>
                <td>Acc</td>
                <td>Auc</td>
              </tr>
              <tr>
                <td></td>
                <td>
                </td>
                <td>
                </td>
                <td>
                </td>
                <td>0.7816</td>
                <td>0.9789</td>
                <td>0.9538</td>
                <td>0.9766</td>
              </tr>
              <tr>
                <td></td>
                <td></td>
                <td>
                </td>
                <td>
                </td>
                <td>0.8012</td>
                <td>0.9794</td>
                <td>0.9572</td>
                <td>0.9798</td>
              </tr>
              <tr>
                <td></td>
                <td></td>
                <td></td>
                <td>
                </td>
                <td>0.8155</td>
                <td>0.9798</td>
                <td>0.9598</td>
                <td>0.9821</td>
              </tr>
              <tr>
                <td></td>
                <td></td>
                <td></td>
                <td></td>
                <td>0.8264</td>
                <td>0.9812</td>
                <td>0.9625</td>
                <td>0.9848</td>
              </tr>
            </tbody>
          </table>
        </table-wrap>
        <p>在Baseline的基础上替换为大核卷积残差块LKCRB后，灵敏度(Se)从0.7816显著提升至0.8012。传统的残差块结构通常受限于3 × 3卷积核的局部感受野，在处理细长且扭曲的血管路径时，难以捕捉跨区域的全局拓扑依赖，容易导致血管在视觉特征微弱处发生断裂。而大核卷积残差块LKCRB凭借其7 × 7深度可分离卷积架构，模拟了类似Transformer的长程建模能力，在不显著增加计算开销的前提下大幅扩展了有效感受野。这一机制强化了模型对血管连续性的感知，显著缓解了微小血管的断裂问题。</p>
        <p>进一步叠加AMSF模块后，Se指标攀升至0.8155，AUC增长至0.9821。常规的U型架构在瓶颈处往往采用单一尺度的特征映射，这使得模型在面对视网膜血管极端的尺度动态分布(从粗大的中心主干到极其微弱的毛细末梢)时，难以平衡不同粒度的特征表征。AMSF模块通过并行的非对称扩张卷积支路，实现了对多尺度空间信息的动态采集。这种“由粗及精”的特征融合策略，有效填补了单一感受野在特征提取时的盲区，使得模型对细小血管分支的查全率得到了进一步提升。</p>
        <p>在最终引入坐标注意力后，特异性(Sp)提升至0.9812，准确率(Acc)达到0.9625的峰值。此前的方法(如SE注意力)往往通过全局平均池化将空间信息压缩为单一的通道向量，这导致模型失去了对血管像素精确坐标的感知能力，在面对视盘边缘、病变渗出等高对比度类血管伪影时，容易产生误判。TAB通过将空间坐标信息分别沿水平与垂直方向进行编码，实现了精准的空间位置权重分配。该机制不仅增强了血管区域的特征响应，更赋予了模型强大的背景抑制能力，从而在保持高灵敏度的同时，显著降低了误诊率，实现了分割性能的全面优化。</p>
      </sec>
    </sec>
    <sec id="sec6">
      <title>5. 结论</title>
      <p>本文提出了一种名为TLadder-UMSF的高精度视网膜血管分割方法。为了全面提取眼底图像中复杂的血管形态特征，我们构建了基于双阶段迭代细化的阶梯式网络架构。通过引入集成了大感受野特征提取能力的大核卷积残差块，有效增强了模型对微细血管分支的捕捉及拓扑连通性的保持。同时，本文设计了非对称多尺度融合(AMSF)策略与坐标注意力机制，旨在实现对不同尺度血管特征的深度挖掘与精准空间定位，为血管分割提供了更具辨识度的多维视角。经过实验验证，结果表明本文方法在DRIVE和STARE数据集上均取得了优于经典算法及近年来主流算法的效果，具有更强的鲁棒性与可解释性。未来的工作将偏向于对异质性临床数据集的进一步补充，增强模型的泛化能力，并在模型轻量化方面进一步探索，尝试扩展到更广泛的医学图像分割任务。</p>
    </sec>
  </body>
  <back>
    <ref-list>
      <title>References</title>
      <ref id="B1">
        <label>1.</label>
        <citation-alternatives>
          <mixed-citation publication-type="other">Liew, G., Wang, J.J., Mitchell, P. and Wong, T.Y. (2008) Retinal Vascular Imaging: A New Tool in Microvascular Disease Research. <italic>Circulation</italic>: <italic>Cardiovascular</italic><italic>Imaging</italic>, 1, 156-161. https://doi.org/10.1161/circimaging.108.784876 <pub-id pub-id-type="doi">10.1161/circimaging.108.784876</pub-id><pub-id pub-id-type="pmid">19808533</pub-id><ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1161/circimaging.108.784876">https://doi.org/10.1161/circimaging.108.784876</ext-link></mixed-citation>
          <element-citation publication-type="other">
            <person-group person-group-type="author">
              <string-name>Liew, G.</string-name>
              <string-name>Wang, J.J.</string-name>
              <string-name>Mitchell, P.</string-name>
              <string-name>Wong, T.Y.</string-name>
            </person-group>
            <year>2008</year>
            <article-title>Retinal Vascular Imaging: A New Tool in Microvascular Disease Research</article-title>
            <source>Circulation: Cardiovascular Imaging</source>
            <volume>1</volume>
            <pub-id pub-id-type="doi">10.1161/circimaging.108.784876</pub-id>
            <pub-id pub-id-type="pmid">19808533</pub-id>
          </element-citation>
        </citation-alternatives>
      </ref>
      <ref id="B2">
        <label>2.</label>
        <citation-alternatives>
          <mixed-citation publication-type="other">Cheung, C.Y., Xu, D., Cheng, C., Sabanayagam, C., Tham, Y., Yu, M., <italic>et al</italic>. (2021) A Deep-Learning System for the Assessment of Cardiovascular Disease Risk via the Measurement of Retinal-Vessel Calibre. <italic>Nature</italic><italic>Biomedical</italic><italic>Engineering</italic>, 5, 498-508. https://doi.org/10.1038/s41551-020-00626-4 <pub-id pub-id-type="doi">10.1038/s41551-020-00626-4</pub-id><pub-id pub-id-type="pmid">33046867</pub-id><ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1038/s41551-020-00626-4">https://doi.org/10.1038/s41551-020-00626-4</ext-link></mixed-citation>
          <element-citation publication-type="other">
            <person-group person-group-type="author">
              <string-name>Cheung, C.Y.</string-name>
              <string-name>Xu, D.</string-name>
              <string-name>Cheng, C.</string-name>
              <string-name>Sabanayagam, C.</string-name>
              <string-name>Tham, Y.</string-name>
              <string-name>Yu, M.</string-name>
            </person-group>
            <year>2021</year>
            <article-title>A Deep-Learning System for the Assessment of Cardiovascular Disease Risk via the Measurement of Retinal-Vessel Calibre</article-title>
            <source>Nature Biomedical Engineering</source>
            <volume>5</volume>
            <pub-id pub-id-type="doi">10.1038/s41551-020-00626-4</pub-id>
            <pub-id pub-id-type="pmid">33046867</pub-id>
          </element-citation>
        </citation-alternatives>
      </ref>
      <ref id="B3">
        <label>3.</label>
        <citation-alternatives>
          <mixed-citation publication-type="other">Hughes, A.D., Falaschetti, E., Witt, N., Wijetunge, S., Thom, S.A.M., Tillin, T., <italic>et al</italic>. (2016) Association of Retinopathy and Retinal Microvascular Abnormalities with Stroke and Cerebrovascular Disease. <italic>Stroke</italic>, 47, 2862-2864. https://doi.org/10.1161/strokeaha.116.014998 <pub-id pub-id-type="doi">10.1161/strokeaha.116.014998</pub-id><pub-id pub-id-type="pmid">27729577</pub-id><ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1161/strokeaha.116.014998">https://doi.org/10.1161/strokeaha.116.014998</ext-link></mixed-citation>
          <element-citation publication-type="other">
            <person-group person-group-type="author">
              <string-name>Hughes, A.D.</string-name>
              <string-name>Falaschetti, E.</string-name>
              <string-name>Witt, N.</string-name>
              <string-name>Wijetunge, S.</string-name>
              <string-name>Thom, S.A.M.</string-name>
              <string-name>Tillin, T.</string-name>
            </person-group>
            <year>2016</year>
            <article-title>Association of Retinopathy and Retinal Microvascular Abnormalities with Stroke and Cerebrovascular Disease</article-title>
            <source>Stroke</source>
            <volume>47</volume>
            <pub-id pub-id-type="doi">10.1161/strokeaha.116.014998</pub-id>
            <pub-id pub-id-type="pmid">27729577</pub-id>
          </element-citation>
        </citation-alternatives>
      </ref>
      <ref id="B4">
        <label>4.</label>
        <citation-alternatives>
          <mixed-citation publication-type="other">Zhang, K., Liu, X., Xu, J., Yuan, J., Cai, W., Chen, T., <italic>et al</italic>. (2021) Deep-Learning Models for the Detection and Incidence Prediction of Chronic Kidney Disease and Type 2 Diabetes from Retinal Fundus Images. <italic>Nature</italic><italic>Biomedical</italic><italic>Engineering</italic>, 5, 533-545. https://doi.org/10.1038/s41551-021-00745-6 <pub-id pub-id-type="doi">10.1038/s41551-021-00745-6</pub-id><pub-id pub-id-type="pmid">34131321</pub-id><ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1038/s41551-021-00745-6">https://doi.org/10.1038/s41551-021-00745-6</ext-link></mixed-citation>
          <element-citation publication-type="other">
            <person-group person-group-type="author">
              <string-name>Zhang, K.</string-name>
              <string-name>Liu, X.</string-name>
              <string-name>Xu, J.</string-name>
              <string-name>Yuan, J.</string-name>
              <string-name>Cai, W.</string-name>
              <string-name>Chen, T.</string-name>
            </person-group>
            <year>2021</year>
            <article-title>Deep-Learning Models for the Detection and Incidence Prediction of Chronic Kidney Disease and Type 2 Diabetes from Retinal Fundus Images</article-title>
            <source>Nature Biomedical Engineering</source>
            <volume>5</volume>
            <pub-id pub-id-type="doi">10.1038/s41551-021-00745-6</pub-id>
            <pub-id pub-id-type="pmid">34131321</pub-id>
          </element-citation>
        </citation-alternatives>
      </ref>
      <ref id="B5">
        <label>5.</label>
        <citation-alternatives>
          <mixed-citation publication-type="other">De Fauw, J., Ledsam, J.R., Romera-Paredes, B., Nikolov, S., Tomasev, N., Blackwell, S., <italic>et al</italic>. (2018) Clinically Applicable Deep Learning for Diagnosis and Referral in Retinal Disease. <italic>Nature</italic><italic>Medicine</italic>, 24, 1342-1350. https://doi.org/10.1038/s41591-018-0107-6 <pub-id pub-id-type="doi">10.1038/s41591-018-0107-6</pub-id><pub-id pub-id-type="pmid">30104768</pub-id><ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1038/s41591-018-0107-6">https://doi.org/10.1038/s41591-018-0107-6</ext-link></mixed-citation>
          <element-citation publication-type="other">
            <person-group person-group-type="author">
              <string-name>Fauw, J.</string-name>
              <string-name>Ledsam, J.R.</string-name>
              <string-name>Romera-Paredes, B.</string-name>
              <string-name>Nikolov, S.</string-name>
              <string-name>Tomasev, N.</string-name>
              <string-name>Blackwell, S.</string-name>
            </person-group>
            <year>2018</year>
            <article-title>Clinically Applicable Deep Learning for Diagnosis and Referral in Retinal Disease</article-title>
            <source>Nature Medicine</source>
            <volume>24</volume>
            <pub-id pub-id-type="doi">10.1038/s41591-018-0107-6</pub-id>
            <pub-id pub-id-type="pmid">30104768</pub-id>
          </element-citation>
        </citation-alternatives>
      </ref>
      <ref id="B6">
        <label>6.</label>
        <citation-alternatives>
          <mixed-citation publication-type="other">Wang, Y., Ji, G., Lin, P. and Trucco, E. (2013) Retinal Vessel Segmentation Using Multiwavelet Kernels and Multiscale Hierarchical Decomposition. <italic>Pattern</italic><italic>Recognition</italic>, 46, 2117-2133. https://doi.org/10.1016/j.patcog.2012.12.014 <pub-id pub-id-type="doi">10.1016/j.patcog.2012.12.014</pub-id><ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.patcog.2012.12.014">https://doi.org/10.1016/j.patcog.2012.12.014</ext-link></mixed-citation>
          <element-citation publication-type="other">
            <person-group person-group-type="author">
              <string-name>Wang, Y.</string-name>
              <string-name>Ji, G.</string-name>
              <string-name>Lin, P.</string-name>
              <string-name>Trucco, E.</string-name>
            </person-group>
            <year>2013</year>
            <article-title>Retinal Vessel Segmentation Using Multiwavelet Kernels and Multiscale Hierarchical Decomposition</article-title>
            <source>Pattern Recognition</source>
            <volume>46</volume>
            <pub-id pub-id-type="doi">10.1016/j.patcog.2012.12.014</pub-id>
          </element-citation>
        </citation-alternatives>
      </ref>
      <ref id="B7">
        <label>7.</label>
        <citation-alternatives>
          <mixed-citation publication-type="other">Yin, Y., Adel, M. and Bourennane, S. (2012) Retinal Vessel Segmentation Using a Probabilistic Tracking Method. <italic>Pattern</italic><italic>Recognition</italic>, 45, 1235-1244. https://doi.org/10.1016/j.patcog.2011.09.019 <pub-id pub-id-type="doi">10.1016/j.patcog.2011.09.019</pub-id><ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.patcog.2011.09.019">https://doi.org/10.1016/j.patcog.2011.09.019</ext-link></mixed-citation>
          <element-citation publication-type="other">
            <person-group person-group-type="author">
              <string-name>Yin, Y.</string-name>
              <string-name>Adel, M.</string-name>
              <string-name>Bourennane, S.</string-name>
            </person-group>
            <year>2012</year>
            <article-title>Retinal Vessel Segmentation Using a Probabilistic Tracking Method</article-title>
            <source>Pattern Recognition</source>
            <volume>45</volume>
            <pub-id pub-id-type="doi">10.1016/j.patcog.2011.09.019</pub-id>
          </element-citation>
        </citation-alternatives>
      </ref>
      <ref id="B8">
        <label>8.</label>
        <citation-alternatives>
          <mixed-citation publication-type="other">Câmara Neto, L., Ramalho, G.L.B., Rocha Neto, J.F.S., Veras, R.M.S. and Medeiros, F.N.S. (2017) An Unsupervised Coarse-to-Fine Algorithm for Blood Vessel Segmentation in Fundus Images. <italic>Expert</italic><italic>Systems</italic><italic>with</italic><italic>Applications</italic>, 78, 182-192. https://doi.org/10.1016/j.eswa.2017.02.015 <pub-id pub-id-type="doi">10.1016/j.eswa.2017.02.015</pub-id><ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.eswa.2017.02.015">https://doi.org/10.1016/j.eswa.2017.02.015</ext-link></mixed-citation>
          <element-citation publication-type="other">
            <person-group person-group-type="author">
              <string-name>Neto, L.</string-name>
              <string-name>Ramalho, G.L.B.</string-name>
              <string-name>Neto, J.F.S.</string-name>
              <string-name>Veras, R.M.S.</string-name>
              <string-name>Medeiros, F.N.S.</string-name>
            </person-group>
            <year>2017</year>
            <article-title>An Unsupervised Coarse-to-Fine Algorithm for Blood Vessel Segmentation in Fundus Images</article-title>
            <source>Expert Systems with Applications</source>
            <volume>78</volume>
            <pub-id pub-id-type="doi">10.1016/j.eswa.2017.02.015</pub-id>
          </element-citation>
        </citation-alternatives>
      </ref>
      <ref id="B9">
        <label>9.</label>
        <citation-alternatives>
          <mixed-citation publication-type="other">Lam, B.S.Y., Yongsheng Gao, and Liew, A.W. (2010) General Retinal Vessel Segmentation Using Regularization-Based Multiconcavity Modeling. <italic>IEEE</italic><italic>Transactions</italic><italic>on</italic><italic>Medical</italic><italic>Imaging</italic>, 29, 1369-1381. https://doi.org/10.1109/tmi.2010.2043259 <pub-id pub-id-type="doi">10.1109/tmi.2010.2043259</pub-id><pub-id pub-id-type="pmid">20304729</pub-id><ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1109/tmi.2010.2043259">https://doi.org/10.1109/tmi.2010.2043259</ext-link></mixed-citation>
          <element-citation publication-type="other">
            <person-group person-group-type="author">
              <string-name>Lam, B.S.Y.</string-name>
              <string-name>Liew, A.W.</string-name>
            </person-group>
            <year>2010</year>
            <article-title>General Retinal Vessel Segmentation Using Regularization-Based Multiconcavity Modeling</article-title>
            <source>IEEE Transactions on Medical Imaging</source>
            <volume>29</volume>
            <pub-id pub-id-type="doi">10.1109/tmi.2010.2043259</pub-id>
            <pub-id pub-id-type="pmid">20304729</pub-id>
          </element-citation>
        </citation-alternatives>
      </ref>
      <ref id="B10">
        <label>10.</label>
        <citation-alternatives>
          <mixed-citation publication-type="confproc">Wu, C., Zou, Y. and Yang, Z. (2019) U-GAN: Generative Adversarial Networks with U-Net for Retinal Vessel Segmentation. 2019 14 <italic>th International Conference on Computer Science &amp; Education</italic> ( <italic>ICCSE</italic>), Toronto, 19-21 August 2019, 642-646. https://doi.org/10.1109/iccse.2019.8845397 <pub-id pub-id-type="doi">10.1109/iccse.2019.8845397</pub-id><ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1109/iccse.2019.8845397">https://doi.org/10.1109/iccse.2019.8845397</ext-link></mixed-citation>
          <element-citation publication-type="confproc">
            <person-group person-group-type="author">
              <string-name>Wu, C.</string-name>
              <string-name>Zou, Y.</string-name>
              <string-name>Yang, Z.</string-name>
            </person-group>
            <year>2019</year>
            <article-title>U-GAN: Generative Adversarial Networks with U-Net for Retinal Vessel Segmentation</article-title>
            <source>2019 14th International Conference on Computer Science &amp; Education (ICCSE)</source>
            <volume>19</volume>
            <pub-id pub-id-type="doi">10.1109/iccse.2019.8845397</pub-id>
          </element-citation>
        </citation-alternatives>
      </ref>
      <ref id="B11">
        <label>11.</label>
        <citation-alternatives>
          <mixed-citation publication-type="journal">Zhuang, J. (2018) LadderNet: Multi-Path Networks Based on U-Net for Medical Image Segmentation. arXiv:1810.07810.</mixed-citation>
          <element-citation publication-type="journal">
            <person-group person-group-type="author">
              <string-name>Zhuang, J.</string-name>
            </person-group>
            <year>2018</year>
            <article-title>LadderNet: Multi-Path Networks Based on U-Net for Medical Image Segmentation</article-title>
            <fpage>1810</fpage>
          </element-citation>
        </citation-alternatives>
      </ref>
      <ref id="B12">
        <label>12.</label>
        <citation-alternatives>
          <mixed-citation publication-type="journal">Wang, D., Haytham, A., Pottenburgh, J., Saeedi, O. and Tao, Y. (2020) Hard Attention Net for Automatic Retinal Vessel Segmentation. <italic>IEEE</italic><italic>Journal</italic><italic>of</italic><italic>Biomedical</italic><italic>and</italic><italic>Health</italic><italic>Informatics</italic>, 24, 3384-3396. https://doi.org/10.1109/jbhi.2020.3002985 <pub-id pub-id-type="doi">10.1109/jbhi.2020.3002985</pub-id><pub-id pub-id-type="pmid">32750941</pub-id><ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1109/jbhi.2020.3002985">https://doi.org/10.1109/jbhi.2020.3002985</ext-link></mixed-citation>
          <element-citation publication-type="journal">
            <person-group person-group-type="author">
              <string-name>Wang, D.</string-name>
              <string-name>Haytham, A.</string-name>
              <string-name>Pottenburgh, J.</string-name>
              <string-name>Saeedi, O.</string-name>
              <string-name>Tao, Y.</string-name>
            </person-group>
            <year>2020</year>
            <article-title>Hard Attention Net for Automatic Retinal Vessel Segmentation</article-title>
            <source>IEEE Journal of Biomedical and Health Informatics</source>
            <volume>24</volume>
            <pub-id pub-id-type="doi">10.1109/jbhi.2020.3002985</pub-id>
            <pub-id pub-id-type="pmid">32750941</pub-id>
          </element-citation>
        </citation-alternatives>
      </ref>
      <ref id="B13">
        <label>13.</label>
        <citation-alternatives>
          <mixed-citation publication-type="confproc">Hou, Q., Zhou, D. and Feng, J. (2021) Coordinate Attention for Efficient Mobile Network Design. 2021 <italic>IEEE</italic>/ <italic>CVF Conf</italic><italic>erence on Computer Vision and Pattern Recognition</italic> ( <italic>CVPR</italic>), 13713-13722. https://doi.org/10.1109/cvpr46437.2021.01350 <pub-id pub-id-type="doi">10.1109/cvpr46437.2021.01350</pub-id><ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1109/cvpr46437.2021.01350">https://doi.org/10.1109/cvpr46437.2021.01350</ext-link></mixed-citation>
          <element-citation publication-type="confproc">
            <person-group person-group-type="author">
              <string-name>Hou, Q.</string-name>
              <string-name>Zhou, D.</string-name>
              <string-name>Feng, J.</string-name>
            </person-group>
            <year>2021</year>
            <article-title>Coordinate Attention for Efficient Mobile Network Design</article-title>
            <source>2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)</source>
            <pub-id pub-id-type="doi">10.1109/cvpr46437.2021.01350</pub-id>
          </element-citation>
        </citation-alternatives>
      </ref>
      <ref id="B14">
        <label>14.</label>
        <citation-alternatives>
          <mixed-citation publication-type="other">Ronneberger, O., Fischer, P. and Brox, T. (2015) U-Net: Convolutional Networks for Biomedical Image Segmentation. In: Navab, N., Hornegger, J., Wells, W. and Frangi, A., Eds., <italic>Lecture</italic><italic>Notes</italic><italic>in</italic><italic>Computer</italic><italic>Science</italic>, Springer International Publishing, 234-241. https://doi.org/10.1007/978-3-319-24574-4_28 <pub-id pub-id-type="doi">10.1007/978-3-319-24574-4_28</pub-id><ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1007/978-3-319-24574-4_28">https://doi.org/10.1007/978-3-319-24574-4_28</ext-link></mixed-citation>
          <element-citation publication-type="other">
            <person-group person-group-type="author">
              <string-name>Ronneberger, O.</string-name>
              <string-name>Fischer, P.</string-name>
              <string-name>Brox, T.</string-name>
              <string-name>Navab, N.</string-name>
              <string-name>Hornegger, J.</string-name>
              <string-name>Wells, W.</string-name>
              <string-name>Frangi, A.</string-name>
              <string-name>Science, S</string-name>
            </person-group>
            <year>2015</year>
            <article-title>U-Net: Convolutional Networks for Biomedical Image Segmentation</article-title>
            <source>In: Navab</source>
            <volume>234</volume>
            <pub-id pub-id-type="doi">10.1007/978-3-319-24574-4_28</pub-id>
          </element-citation>
        </citation-alternatives>
      </ref>
      <ref id="B15">
        <label>15.</label>
        <citation-alternatives>
          <mixed-citation publication-type="other">Chen, G., Li, L., Dai, Y., Zhang, J. and Yap, M.H. (2023) AAU-Net: An Adaptive Attention U-Net for Breast Lesions Segmentation in Ultrasound Images. <italic>IEEE</italic><italic>Transactions</italic><italic>on</italic><italic>Medical</italic><italic>Imaging</italic>, 42, 1289-1300. https://doi.org/10.1109/tmi.2022.3226268 <pub-id pub-id-type="doi">10.1109/tmi.2022.3226268</pub-id><pub-id pub-id-type="pmid">36455083</pub-id><ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1109/tmi.2022.3226268">https://doi.org/10.1109/tmi.2022.3226268</ext-link></mixed-citation>
          <element-citation publication-type="other">
            <person-group person-group-type="author">
              <string-name>Chen, G.</string-name>
              <string-name>Li, L.</string-name>
              <string-name>Dai, Y.</string-name>
              <string-name>Zhang, J.</string-name>
              <string-name>Yap, M.H.</string-name>
            </person-group>
            <year>2023</year>
            <article-title>AAU-Net: An Adaptive Attention U-Net for Breast Lesions Segmentation in Ultrasound Images</article-title>
            <source>IEEE Transactions on Medical Imaging</source>
            <volume>42</volume>
            <pub-id pub-id-type="doi">10.1109/tmi.2022.3226268</pub-id>
            <pub-id pub-id-type="pmid">36455083</pub-id>
          </element-citation>
        </citation-alternatives>
      </ref>
      <ref id="B16">
        <label>16.</label>
        <citation-alternatives>
          <mixed-citation publication-type="other">Li, X., Chen, H., Qi, X., Dou, Q., Fu, C. and Heng, P. (2018) H-Denseunet: Hybrid Densely Connected UNet for Liver and Tumor Segmentation from CT Volumes. <italic>IEEE</italic><italic>Transactions</italic><italic>on</italic><italic>Medical</italic><italic>Imaging</italic>, 37, 2663-2674. https://doi.org/10.1109/tmi.2018.2845918 <pub-id pub-id-type="doi">10.1109/tmi.2018.2845918</pub-id><pub-id pub-id-type="pmid">29994201</pub-id><ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1109/tmi.2018.2845918">https://doi.org/10.1109/tmi.2018.2845918</ext-link></mixed-citation>
          <element-citation publication-type="other">
            <person-group person-group-type="author">
              <string-name>Li, X.</string-name>
              <string-name>Chen, H.</string-name>
              <string-name>Qi, X.</string-name>
              <string-name>Dou, Q.</string-name>
              <string-name>Fu, C.</string-name>
              <string-name>Heng, P.</string-name>
            </person-group>
            <year>2018</year>
            <article-title>H-Denseunet: Hybrid Densely Connected UNet for Liver and Tumor Segmentation from CT Volumes</article-title>
            <source>IEEE Transactions on Medical Imaging</source>
            <volume>37</volume>
            <pub-id pub-id-type="doi">10.1109/tmi.2018.2845918</pub-id>
            <pub-id pub-id-type="pmid">29994201</pub-id>
          </element-citation>
        </citation-alternatives>
      </ref>
      <ref id="B17">
        <label>17.</label>
        <citation-alternatives>
          <mixed-citation publication-type="other">Wang, S., Li, L. and Zhuang, X. (2022) Attu-Net: Attention U-Net for Brain Tumor Segmentation. In: Crimi, A. and Bakas, S. Eds., <italic>Lecture</italic><italic>Notes</italic><italic>in</italic><italic>Computer</italic><italic>Science</italic>, Springer International Publishing, 302-311. https://doi.org/10.1007/978-3-031-09002-8_27 <pub-id pub-id-type="doi">10.1007/978-3-031-09002-8_27</pub-id><ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1007/978-3-031-09002-8_27">https://doi.org/10.1007/978-3-031-09002-8_27</ext-link></mixed-citation>
          <element-citation publication-type="other">
            <person-group person-group-type="author">
              <string-name>Wang, S.</string-name>
              <string-name>Li, L.</string-name>
              <string-name>Zhuang, X.</string-name>
              <string-name>Crimi, A.</string-name>
              <string-name>Bakas, S.</string-name>
              <string-name>Science, S</string-name>
            </person-group>
            <year>2022</year>
            <article-title>Attu-Net: Attention U-Net for Brain Tumor Segmentation</article-title>
            <source>In: Crimi</source>
            <volume>302</volume>
            <pub-id pub-id-type="doi">10.1007/978-3-031-09002-8_27</pub-id>
          </element-citation>
        </citation-alternatives>
      </ref>
      <ref id="B18">
        <label>18.</label>
        <citation-alternatives>
          <mixed-citation publication-type="other">Kumar, A., Agrawal, R.K. and Joseph, L. (2023) Itermiunet: A Lightweight Architecture for Automatic Blood Vessel Segmentation. <italic>Multimedia</italic><italic>Tools</italic><italic>and</italic><italic>Applications</italic>, 82, 43207-43231. https://doi.org/10.1007/s11042-023-15433-7 <pub-id pub-id-type="doi">10.1007/s11042-023-15433-7</pub-id><ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1007/s11042-023-15433-7">https://doi.org/10.1007/s11042-023-15433-7</ext-link></mixed-citation>
          <element-citation publication-type="other">
            <person-group person-group-type="author">
              <string-name>Kumar, A.</string-name>
              <string-name>Agrawal, R.K.</string-name>
              <string-name>Joseph, L.</string-name>
            </person-group>
            <year>2023</year>
            <article-title>Itermiunet: A Lightweight Architecture for Automatic Blood Vessel Segmentation</article-title>
            <source>Multimedia Tools and Applications</source>
            <volume>82</volume>
            <pub-id pub-id-type="doi">10.1007/s11042-023-15433-7</pub-id>
          </element-citation>
        </citation-alternatives>
      </ref>
    </ref-list>
  </back>
</article>