亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于多尺度監(jiān)督與殘差反饋的優(yōu)化算法有效提高鼻咽癌CT圖像視交叉及視神經(jīng)分割精度

        2025-04-13 00:00:00劉瑨禹梁淑君張煜

        摘要:目的 提出并驗證一種新的基于多尺度監(jiān)督與殘差反饋的深度學(xué)習(xí)分割算法(DSRF),以實現(xiàn)對鼻咽癌患者CT圖像中小器官-視交叉和視神經(jīng)的精確分割。方法 收集來自SegRap2023、StructSeg2019和HaN-Seg2023公開數(shù)據(jù)庫的212例鼻咽癌患者CT圖像及其真實標(biāo)簽。為解決傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)在池化過程中小器官特征丟失的問題,設(shè)計一種基于混合池化策略的解碼器,利用自適應(yīng)池化和平均池化技術(shù)將高級語義特征逐步細化并融合低級語義特征,使網(wǎng)絡(luò)學(xué)習(xí)到更細小的特征信息。采用多尺度深度監(jiān)督層,在深度監(jiān)督下學(xué)習(xí)豐富的多尺度、多層次語義特征,以提高對視交叉和視神經(jīng)邊界的識別能力。針對CT圖像中視交叉和視神經(jīng)對比度低的挑戰(zhàn),設(shè)計可使網(wǎng)絡(luò)多次迭代的殘差反饋模塊,該模塊充分利用模糊邊界和易混淆區(qū)域的信息,通過監(jiān)督迭代細化分割結(jié)果,并結(jié)合每次迭代的損失優(yōu)化整個分割框架,提高分割精度和邊界清晰度。采用消融實驗驗證各組件的有效性,并與其他方法進行對比實驗。結(jié)果 引入混合池化策略、多尺度深度監(jiān)督層和殘差反饋模塊的DSRF算法能有效提升小器官的特征表示,實現(xiàn)視交叉和視神經(jīng)的準(zhǔn)確分割,其平均DSC達到0.837,ASSD低至0.351。消融實驗進一步驗證DSRF方法中各組成部分的貢獻。結(jié)論 本文提出的基于多尺度監(jiān)督及殘差反饋的深度學(xué)習(xí)分割算法能有效提升特征表示能力,實現(xiàn)視交叉和視神經(jīng)準(zhǔn)確分割。

        關(guān)鍵詞:鼻咽癌;視交叉與視神經(jīng)分割;混合池化策略;深度監(jiān)督;殘差反饋

        放射治療是鼻咽癌的主要治療手段,危及器官的準(zhǔn)確勾畫是決定放射治療能否達到預(yù)期效果的關(guān)鍵[1]。目前,鼻咽癌危及器官的勾畫主要依賴于醫(yī)師手動在CT圖像上進行,其精度取決于醫(yī)師的經(jīng)驗和熟練程度,具有較大的主觀性[2]。手動勾畫速度慢,人力成本高,醫(yī)生工作負(fù)擔(dān)大。因此,開發(fā)準(zhǔn)確高效的自動勾畫工具,可以減輕放療醫(yī)生的工作量、縮短危及器官勾畫時間,并提高放療計劃質(zhì)量。

        在鼻咽癌危及器官分割研究領(lǐng)域,基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的深度學(xué)習(xí)分割算法得到了廣泛應(yīng)用[3-8]。然而,現(xiàn)有方法已經(jīng)能夠較為精準(zhǔn)地分割大體積危及器官,而準(zhǔn)確分割小體積危及器官(如視神經(jīng)和視交叉)仍是一個重大挑戰(zhàn)。有研究提出一種并行網(wǎng)絡(luò)架構(gòu)PCGNet[7],采用U-Net 編碼器和門控軸向Transformer 編碼器組成的并行編碼器,用于提取局部和全局的語義特征,并通過級聯(lián)圖模塊融合多尺度特征信息,最終通過解碼器上采樣和生成模塊生成不同尺度的分割圖。分割結(jié)果顯示,對于大小、形態(tài)不同的鼻咽癌危及器官,分割準(zhǔn)確性存在顯著差異。Liu等[8]篩選出149篇關(guān)于頭頸部危及器官分割的深度學(xué)習(xí)算法研究,結(jié)果表明,現(xiàn)有深度學(xué)習(xí)算法在大體積危及器官(如腦干、眼球等)上的DSC較高,達到0.85以上,對于較小體積的視交叉和視神經(jīng),平均DSC僅為0.62 和0.73。這是由于危及器官大小差異顯著,在CNN高級卷積層的輸出中,經(jīng)過一系列卷積和池化操作后,語義特征高度抽象化,小體積的危及器官在高層特征中存在較為嚴(yán)重的信息丟失,直接影響分割準(zhǔn)確性。此外,小危及器官如視神經(jīng)和視交叉在CT圖像上的邊緣清晰度較差,很大程度上限制了其分割的準(zhǔn)確性。

        針對鼻咽癌危及器官中小器官——視交叉和視神經(jīng)分割精度低的問題,本文提出一種新的基于多尺度監(jiān)督及殘差反饋優(yōu)化機制的鼻咽癌視交叉和視神經(jīng)分割算法(DSRF)。針對傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)在池化過程中導(dǎo)致小器官特征丟失的問題,本算法在解碼器中采用混合池化策略(HPS),將高級語義特征逐步細化并融合低級語義特征,使網(wǎng)絡(luò)能夠?qū)W習(xí)到更細小的特征信息。同時,本算法在輸出層采用多尺度深度監(jiān)督層(DSL),在深度監(jiān)督下學(xué)習(xí)豐富的多尺度、多層次語義特征,以提高對視交叉和視神經(jīng)邊界的識別能力。此外,針對CT圖像中視交叉和視神經(jīng)對比度較低的問題,本算法引入殘差反饋網(wǎng)絡(luò)[9]的反饋傳輸策略,設(shè)計可使網(wǎng)絡(luò)多次迭代的殘差反饋模塊(RFM),重點關(guān)注模糊邊界和易混淆區(qū)域的信息,通過監(jiān)督迭代過程不斷細化分割結(jié)果,并結(jié)合每次迭代的損失函數(shù)對分割框架進行優(yōu)化,從而提高分割精度和邊界清晰度。

        1 材料和方法

        1.1 實驗資料

        本文資料來自3個公開用于鼻咽癌危及器官分割的數(shù)據(jù)集Segmentation of Organs-at-Risk and GrossTumor Volume of NPC(SegRap2023)[10]、AutomaticStructure Segmentation for Radiotherapy PlanningChallenge(StructSeg2019)[11]和The Head and NeckOrgans-at-Risk CT and MR Segmentation Challenge(HaN-Seg2023)[12]。3個公開數(shù)據(jù)集分別由120、50和42例鼻咽癌患者的CT圖像組成(圖1)。數(shù)據(jù)集參數(shù)如下:

        SegRap2023 數(shù)據(jù)集:圖像矩陣為512×512×98~1024×1024×197,分辨率為0.43 mm×0.43 mm×3.00 mm~1.13 mm×1.13 mm×3.02 mm;

        StructSeg2019數(shù)據(jù)集:圖像矩陣為512×512×100~512×512×152,分辨率為0.9766 mm×0.9766 mm×3.00 mm~1.188 mm×1.188 mm×3.00 mm;

        HaN-Seg2023 數(shù)據(jù)集:圖像矩陣為512×512×116~1024×1024×323,分辨率為0.52 mm×0.52 mm×2.0 mm~1.56 mm×1.56 mm×3.0 mm。

        本文的分割目標(biāo)是視交叉和視神經(jīng),直接采用3個公開數(shù)據(jù)集提供的真實標(biāo)簽訓(xùn)練和驗證本文的算法模型。在圖像預(yù)處理方面,首先對所有圖像進行中心裁剪,并且重采樣至矩陣大小為512×512。其次,將SegRap2023和StructSeg2019兩個數(shù)據(jù)集按9∶1的比例劃分為訓(xùn)練集和內(nèi)部測試集,并采用nnU-Net[13]中的數(shù)據(jù)增強方法對訓(xùn)練集進行數(shù)據(jù)擴增,同時以2∶1的比例從訓(xùn)練集中劃分出驗證集,用于三折交叉驗證。HaNSeg2023數(shù)據(jù)集則被用作外部測試集。

        1.2 網(wǎng)絡(luò)框架

        DSRF分割算法選用U形的編碼器-解碼器框架作為主干網(wǎng)絡(luò),其中編碼器部分采用ResNet-50[14]進行特征提取,解碼器部分則采用新的混合池化策略,使網(wǎng)絡(luò)能夠?qū)W習(xí)更精細的語義特征。輸出層采用多尺度深度監(jiān)督層,通過不同尺度的深度監(jiān)督學(xué)習(xí)豐富的多層次語義特征,提升對視交叉和視神經(jīng)邊界的識別能力。DSRF分割算法包括2個步驟:(1)在CT圖像輸入下,利用編碼-解碼框架結(jié)合多尺度深度監(jiān)督層,生成初始的分割結(jié)果。(2)應(yīng)用殘差反饋模塊,從解碼器輸出的特征中提取殘差信息,并在殘差真值(分割真實標(biāo)簽和初始分割結(jié)果之間的差異)的監(jiān)督下,學(xué)習(xí)低置信度和初始錯誤預(yù)測像素附近的殘差信息。最終,通過在訓(xùn)練過程中以反饋的方式不斷優(yōu)化,獲得更精細的分割結(jié)果(圖2)。

        1.2.1 基于混合池化策略的解碼器 在U形卷積神經(jīng)網(wǎng)絡(luò)中,經(jīng)過多次卷積和池化過程,視交叉和視神經(jīng)的特征信息容易丟失。為解決這一問題,本文采用由擴展金字塔池化模塊(EPPM)和深度池化層(DPL)組成的基于混合池化策略的解碼器。其中,EPPM為不同特征層提供視交叉和視神經(jīng)的特征信息,有助于融合初級語義信息和高級語義信息。DPL通過逐步細化較高級的語義特征,使每個空間位置能夠在不同的尺度空間中查看局部上下文,進一步擴大整個網(wǎng)絡(luò)的感受野,減少上采樣的混疊效應(yīng)。

        EPPM通過4 個自適應(yīng)平均池化層分別在1×1、3×3、5×5 和恒等映射層上捕獲視交叉和視神經(jīng)的特征信息,通過特征拼接和3×3卷積層將不同空間尺度上的特征信息進行融合。融合后的特征信息通過3×3卷積層和一個上采樣層傳遞給DPL。圖3A展示了EPPM的結(jié)構(gòu)。深度池化層DPL(圖3B)通過3個不同下采樣率(2、4和8)的池化單元和1個3×3卷積層獲取更精細的特征信息,將細化后的特征信息與編碼器塊橫向連接輸出的特征信息以及EPPM對應(yīng)分支輸出的特征信息進行融合。其中,池化單元(圖3C)是由1 個平均池化層、1 個3×3的卷積層和1個上采樣層構(gòu)成,以逐步細化特征信息,進一步提升分割精度。

        1.2.2 多尺度深度監(jiān)督層 為學(xué)習(xí)不同層次的有效特征表示,本文采用DSL作為DSRF模型的輸出層,利用分割損失對中間結(jié)果進行監(jiān)督,從而約束特征信息。在DSL的監(jiān)督下,DSRF能夠更好地學(xué)習(xí)豐富的多尺度、多層次語義特征,提高對視交叉和視神經(jīng)邊界的識別能力。

        DSL(圖4)將深度池化層(DPL)輸出的特征信息M ij 通過卷積層、上采樣和激活函數(shù)生成不同尺度下的概率圖Pij;將不同尺度特征圖進行融合生成融合后的概率圖Pi;利用真實標(biāo)簽對所有概率圖進行監(jiān)督。以其中一個子分支為例,特征信息經(jīng)過兩個1×1卷積層和插值得到與原圖大小一致的特征圖,再用分割損失對通過sigmoid激活函數(shù)生成的概率圖進行監(jiān)督。

        1.2.3 殘差反饋模塊 在CT圖像中,視交叉和視神經(jīng)的組織對比度低,且體積較小,使得這些區(qū)域的準(zhǔn)確分割尤為困難,導(dǎo)致在初始分割結(jié)果中,這些區(qū)域的邊界準(zhǔn)確度較低。為解決這一問題,本文采用RFM,旨在通過學(xué)習(xí)這些區(qū)域的殘差信息(即真實標(biāo)簽與本次迭代前分割結(jié)果差異的絕對值)來提升對模糊或缺失邊界的識別。

        RFM(圖2)的工作機制如下:在獲得初始分割結(jié)果后,RFM利用解碼器的主干網(wǎng)絡(luò)DPL提取的特征作為輸入,在殘差真值的監(jiān)督下,學(xué)習(xí)難以分割區(qū)域的特征,為不確定像素生成精確的表達圖。RFM的結(jié)構(gòu)包括3個殘差單元,每個單元從解碼器的DPL輸出中提取上下文信息。殘差單元由一個3×3卷積層和一個上采樣層構(gòu)成,以生成維度匹配的特征圖。通過兩個連續(xù)的卷積層(核大小分別為3×3和1×1)和上采樣,生成反映缺失或模糊區(qū)域的殘差信息和殘差信息圖。

        我們引入新的循環(huán)反饋訓(xùn)練策略,以加強對難以預(yù)測像素的關(guān)注。在此策略中,DSRF模型通過兩個主要步驟進行訓(xùn)練:(1)在CT圖像作為輸入的情況下,編碼-解碼架構(gòu)生成初始概率圖(P0),如圖2中的粉色和黑色箭頭所示。通過殘差反饋模塊從解碼器的DPL中提取多尺度特征,學(xué)習(xí)低置信度或預(yù)測錯誤像素的殘差信息,生成對應(yīng)殘差信息圖(R)。利用真實標(biāo)簽與初始概率圖差異的絕對值得到殘差掩模(R),通過殘差掩膜對殘差信息圖進行監(jiān)督,約束殘差信息。(2)在編碼器中,殘差信息通過加權(quán)的方式(圖2左下角紫色星號*運算)與原始特征信息相結(jié)合,增加低置信度像素的權(quán)重,使DSRF模型更加關(guān)注難以預(yù)測的混淆區(qū)域。具體表現(xiàn)為圖2 中的紫色箭頭指示的路徑。通過這種循環(huán)反饋機制,網(wǎng)絡(luò)能夠在每一輪迭代中改進對復(fù)雜或模糊特征的識別與預(yù)測,從而提高整體分割的精確度和魯棒性。

        1.2.4 訓(xùn)練過程與損失函數(shù) DSRF采用端到端的訓(xùn)練方式。DSRF的訓(xùn)練過程主要分為初始分割過程和迭代優(yōu)化過程。初始分割過程見公式1。

        2 結(jié)果

        2.1 消融實驗

        本文提出的DSRF分割算法由HPS、 DSL和RFM組成。為驗證所提出3個模塊的有效性,消融實驗的量化結(jié)果見表1-2,消融實驗的可視化結(jié)果見圖5。當(dāng)僅使用基礎(chǔ)U形網(wǎng)絡(luò)架構(gòu)時,鼻咽癌視交叉和視神經(jīng)在內(nèi)部測試集上的平均DSC和ASSD分別為75.7%和65.1%。在此基礎(chǔ)上引入HPS,模型的分割性能顯著提升,表現(xiàn)為DSC提升4.4%且ASSD分?jǐn)?shù)降低20.5%,表明HPS有效增強DSRF對細微特征的捕捉能力,有助于提升網(wǎng)絡(luò)的特征表示能力。進一步引入DSL模塊后,模型的分割性能有所提升,表現(xiàn)為DSC提升2.1%且ASSD分?jǐn)?shù)降低6.0%,表明DSL有助于DSRF學(xué)習(xí)豐富的多尺度、多層次語義特征,提高對視交叉和視神經(jīng)邊界的識別能力。引入RFM模塊后,模型的分割性能進一步提升,DSC提升1.5%且ASSD降低3.5%,表明RFM充分利用模糊邊界和易混淆區(qū)域的信息,通過監(jiān)督迭代細化分割結(jié)果,并結(jié)合每次迭代的損失優(yōu)化整個分割框架,提高分割精度和邊界清晰度。為進一步分析HPS的貢獻,分別提取DSRF模型和不含HPS模塊的DSRF模型中各層解碼器塊的輸出特征,并通過1×1卷積層和插值操作生成與原圖大小一致的語義特征熱圖(圖6)??梢钥闯觯谏顚咏獯a器塊中,HPS能夠顯著捕捉更清晰的邊緣信息,尤其是在視交叉區(qū)域,不含HPS 模塊的DSRF 模型未能有效捕獲視交叉右下角的語義特征。這進一步表明,HPS模塊對于增強模型捕獲細微特征的能力具有重要作用。此外,殘差表達示例的可視化結(jié)果顯示(圖7),視交叉和視神經(jīng)的邊緣附近區(qū)域分割精度低,RFM利用殘差信息使DSRF更關(guān)注于模糊邊界和易混淆區(qū)域。

        2.2 殘差反饋模塊的迭代次數(shù)調(diào)優(yōu)實驗

        本文對DSRF中殘差反饋模塊(RFM)的超參數(shù)迭代次數(shù)i進行調(diào)優(yōu)實驗(表3)。當(dāng)DSRF模型不進行迭代(即沒有RFM)時,鼻咽癌視交叉和視神經(jīng)在內(nèi)部測試集上的平均DSC 和ASSD分別為82.2%和38.6%。當(dāng)DSRF模型迭代1次時,DSC提升1.5%且ASSD降低3.5%。當(dāng)DSRF模型迭代2次時,DSC保持不變,ASSD僅降低0.7%。由DSC和ASSD的結(jié)果可見,模型DSRF迭代一次即可獲得較優(yōu)的結(jié)果。

        2.3 與現(xiàn)有方法的對比實驗

        將DSRF與3 種典型分割方法(nnU-Net,PoolNet,RF-Net)以及兩種最新分割方法(STU-Net,UMamba)進行比較(表4)。nnU-Net、PoolNet、RF-Net 均為典型的U形架構(gòu)圖像分割模型,采用編碼器-解碼器結(jié)構(gòu),通過不斷提取和融合特征信息,實現(xiàn)對圖像中目標(biāo)區(qū)域的分割。STU-Net 是基于nnU-Net 框架設(shè)計的可擴展且具備強遷移能力的醫(yī)學(xué)圖像分割模型,通過復(fù)合擴展網(wǎng)絡(luò)的深度和寬度,同時結(jié)合大規(guī)模監(jiān)督預(yù)訓(xùn)練策略,在大規(guī)模醫(yī)學(xué)分割任務(wù)中展現(xiàn)了卓越的性能和遷移能力。UMamba是一種針對生物醫(yī)學(xué)圖像分割的通用網(wǎng)絡(luò),采用創(chuàng)新的混合CNN-SSM架構(gòu),結(jié)合卷積層的局部特征提取能力與狀態(tài)空間模型(SSMs)的長程依賴建模能力,配合自動配置機制,能夠高效適應(yīng)多樣化數(shù)據(jù)集,顯著提升分割精度與計算效率。為了公平比較,所有對比方法使用的訓(xùn)練集和測試集與DSRF算法一致,對比方法的代碼均來自作者發(fā)布的原始代碼并經(jīng)過微調(diào)以適應(yīng)本實驗數(shù)據(jù)集。結(jié)果顯示,DSRF在視交叉和視神經(jīng)的分割上均取了最優(yōu)的結(jié)果(表4)。DSRF在視交叉和視神經(jīng)的分割結(jié)果接近于真實標(biāo)簽,邊界較為清晰并保留了較多的解剖細節(jié)(圖8)。

        3 討論

        自動分割鼻咽癌小體積關(guān)鍵危及器官具有非常重要的意義[20-23]。本文提出DSRF分割算法,用于準(zhǔn)確分割鼻咽癌患者CT圖像中視交叉和視神經(jīng)。該算法在解碼器中采用混合池化策略,細化并融合不同層次的特征信息;輸出層引入多尺度深度監(jiān)督層,在深度監(jiān)督下學(xué)習(xí)多尺度語義特征,以提高對視交叉和視神經(jīng)邊界的識別能力。為解決CT圖像中視交叉和視神經(jīng)對比度較低的問題,算法通過殘差反饋模塊多次迭代優(yōu)化分割結(jié)果,從而提升分割精度和邊界清晰度。DSRF算法在3個公開數(shù)據(jù)集上進行消融實驗和對比實驗,驗證了每個模塊的有效性。實驗結(jié)果表明,DSRF算法不僅可以提高分割的準(zhǔn)確性和一致性,還為醫(yī)學(xué)影像學(xué)和臨床實踐提供了更深入的理解,從而為鼻咽癌患者的診斷、治療和監(jiān)測提供更為精準(zhǔn)和個性化的支持。

        卷積神經(jīng)網(wǎng)絡(luò)在多次的卷積和池化過程中容易引起小體積危及器官信息的丟失[24]。Liu等[25]通過擴展池化技術(shù)在卷積神經(jīng)網(wǎng)絡(luò)中的作用,并將其應(yīng)用于顯著物體檢測任務(wù),提出一種基于金字塔池化模塊(PPM)的全局引導(dǎo)模塊(GGM)。該模塊通過U形網(wǎng)絡(luò)自下而上的路徑,將顯著物體的位置信息傳遞到不同特征層級,從而指導(dǎo)特征融合過程。Hu等[26]將金字塔池化技術(shù)作為核心特征提取模塊應(yīng)用于息肉分割任務(wù),利用金字塔池化變換器( P2T)[27]作為主干網(wǎng)絡(luò),結(jié)合多分支金字塔特征融合模塊(PFFM)提取和融合多尺度特征,以增強網(wǎng)絡(luò)對息肉區(qū)域的分割能力。在上述工作的啟發(fā)下,DSRF 算法通過設(shè)計基于混合池化策略的解碼器(HPS),應(yīng)用不同的池化技術(shù)減少卷積神經(jīng)網(wǎng)絡(luò)中多次卷積和池化而導(dǎo)致的視交叉和視神經(jīng)特征信息的丟失。其中,相比于通過金字塔池化模塊引導(dǎo)顯著物體位置信息[25],將金字塔池化用于多尺度特征提取與融合的方式[26],本文的擴展金字塔池化模塊(EPPM)利用高級語義信息,應(yīng)用自適應(yīng)池化技術(shù)為不同特征層提供視交叉和視神經(jīng)的特征信息;深度池化層(DPL)應(yīng)用平均池化技術(shù)逐步細化較高級的語義特征,并將其與編碼器塊橫向連接輸出的特征信息、EPPM對應(yīng)分支輸出的特征信息共三部分特征信息進行特征融合,以有效減少特征信息的丟失。同時,本文采用多尺度深度監(jiān)督層(DSL),從不同層次的DPL中學(xué)習(xí)豐富的多尺度特征信息,提升對視交叉和視神經(jīng)邊界的識別能力,提高視交叉和視神經(jīng)分割的精確度和魯棒性。對于深度監(jiān)督的策略,Wang等[28]提出在深層卷積網(wǎng)絡(luò)中使用深度監(jiān)督,通過在中間層添加監(jiān)督信號,提高反向傳播的效果和網(wǎng)絡(luò)的正則化性能。Zhang等[29]提出一種對比深度監(jiān)督方法,通過在中間層添加對比損失,增強模型在中間表示層的監(jiān)督。Ahmad等[30]提出合作深度監(jiān)督融合學(xué)習(xí),利用多教師模型間的相互學(xué)習(xí)增強深度監(jiān)督效果,并將融合信息提煉到學(xué)生模型中,從而提升分割性能。與上述方法相比,DSRF算法中的深度監(jiān)督無需額外的標(biāo)注數(shù)據(jù)和復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu),支持中間層的監(jiān)督,也不需引入除分割損失之外的其他損失,計算復(fù)雜度較低,訓(xùn)練時間較短。此外,本文進一步引入一種新的循環(huán)反饋訓(xùn)練策略的殘差反饋模塊(RFM),旨在提升視交叉和視神經(jīng)的分割精度與邊界清晰度。RFM通過計算真實標(biāo)簽與當(dāng)前迭代分割結(jié)果之間差異的絕對值生成殘差真值,利用該真值對殘差信息圖進行監(jiān)督,從而約束模糊區(qū)域的特征表達。基于循環(huán)反饋機制,RFM逐步優(yōu)化低置信度區(qū)域的分割結(jié)果,使網(wǎng)絡(luò)更關(guān)注模糊邊界及混淆區(qū)域,從而增強整體分割性能與魯棒性。Umer等[31]提出一種基于殘差注意的雙解碼器網(wǎng)絡(luò),利用殘差注意機制在解碼器中強化腫瘤區(qū)域的顯著特征,同時抑制冗余信息對分割模型訓(xùn)練的干擾,顯著提高在乳房超聲圖像數(shù)據(jù)集上乳腺癌的分割精度。Wang等[32]提出正負(fù)交叉注意網(wǎng)絡(luò)(TaiChiNet),專注于超聲圖像中乳腺病變的前景與背景特征挖掘。TaiChiNet基于“太極”互補原理,分別設(shè)計正路徑和負(fù)路徑,用于增強前景病變及正常背景的特征表達。同時,通過其提出的通道到空間交叉注意模塊(C2-attention),實現(xiàn)正負(fù)路徑特征的交互與互補性監(jiān)督。相比于僅通過殘差注意機制突出腫瘤特征[31],RFM利用殘差真值,提供更穩(wěn)定且精確的監(jiān)督信號,從而有效學(xué)習(xí)殘差信息,進一步提升分割性能。相比于通過正負(fù)路徑兩次監(jiān)督和一次交叉注意實現(xiàn)前景分割的優(yōu)化策略[32],本文提出的循環(huán)反饋訓(xùn)練策略可以迭代調(diào)優(yōu),以在分割精度與運行時間之間實現(xiàn)最佳平衡。

        為進一步提升DSRF模型的性能,我們將在接下來的工作中從以下方面進行改進:針對不同數(shù)據(jù)集勾畫存在差異的問題,將收集同質(zhì)化水平較高的多中心數(shù)據(jù)進行模型測試,以進一步提高并驗證DSRF的泛化能力;在CT圖像中灰度相似或?qū)Ρ榷鹊偷囊谆煜齾^(qū)域,腫瘤學(xué)專家通常會利用來自其他模態(tài)和診斷指征的額外信息結(jié)合CT圖像進行危及器官的勾畫和制定放療計劃,我們計劃引入多模態(tài)數(shù)據(jù),提取其他模態(tài)的特征信息,以輔助CT圖像上視交叉和視神經(jīng)的更準(zhǔn)確分割。

        參考文獻:

        [1] Du XJ, Wang GY, Zhu XD, et al. Refining the 8th edition TNM classification for EBV related nasopharyngeal carcinoma[J].Cancer Cell, 2024, 42(3): 464-73.e3.

        [2] 陳美寧, 劉懿梅, 彭應(yīng)林, 等. 不同級別腫瘤中心醫(yī)師對鼻咽癌調(diào)強放療靶區(qū)和危及器官勾畫差異比較[J]. 中國醫(yī)學(xué)物理學(xué)雜志,2024, 41(3): 265-72.

        [3] Guo DZ, Jin DK, Zhu Z, et al. Organ at risk segmentation for head and neck cancer using stratified learning and neural architecture search[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2020: 4223-32.

        [4] Guo H, Wang J, Xia X, et al. The dosimetric impact of deep learningbased auto-segmentation of organs at risk on nasopharyngeal and rectal cancer[J]. Radiat Oncol, 2021, 16(1): 113.

        [5] Costea M, Zlate A, Durand M, et al. Comparison of atlas-based and deep learning methods for organs at risk delineation on head-and-neck CT images using an automated treatment planning system[J].Radiother Oncol, 2022, 177: 61-70.

        [6] Peng YL, Liu YM, Shen GZ, et al. Improved accuracy of autosegmentation of organs at risk in radiotherapy planning for nasopharyngeal carcinoma based on fully convolutional neural network deep learning[J]. Oral Oncol, 2023, 136: 106261.

        [7] Luan S, Wei C, Ding Y, et al. PCG-net: feature adaptive deep learning for automated head and neck organs-at-risk segmentation[J]. Front Oncol, 2023, 13: 1177788.

        [8] Liu P, Sun Y, Zhao X, et al. Deep learning algorithm performance in contouring head and neck organs at risk: a systematic review and single-arm meta-analysis[J]. Biomed Eng Online, 2023, 22(1): 104.

        [9] Wang K, Liang SJ, Zhang Y. Residual feedback network for breast lesion segmentation in ultrasound image[M]//Medical Image Computing and Computer Assisted Intervention – MICCAI 2021.Cham: Springer International Publishing, 2021: 471-81.

        [10]Luo XD, Fu J, Zhong YX, et al. SegRap2023: a benchmark of organs-at-risk and gross tumor volume Segmentation for Radiotherapy Planning of Nasopharyngeal Carcinoma[J]. Med Image Anal, 2025, 101: 103447.

        [11]Automatic Structure Segmentation for Radiotherapy Planning Challenge 2019. The MICCAI 2019 Challenge[OL]. Retrieved from https://structseg2019.grand-challenge.org

        [12]Podobnik G, Strojan P, Peterlin P, et al. HaN-Seg: The head and neck organ-at-risk CT and MR segmentation dataset[J]. Med Phys, 2023,50(3): 1917-27.

        [13] Isensee F, Jaeger PF, Kohl SAA, et al. nnU-Net: a self-configuring method for deep learning-based biomedical image segmentation[J].Nat Meth, 2021, 18: 203-11.

        [14]He KM, Zhang XY, Ren SQ, et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). June 27-30, 2016. Las Vegas, NV,USA. IEEE, 2016: 770-778.

        [15]Kingma DP, Ba J. Adam: A method for stochastic optimization [J].arXiv preprint arXiv:14126980, 2014.

        [16]Krizhevsky A, Sutskever I, Hinton GE. ImageNet classification with deep convolutional neural networks[J]. Commun ACM, 2017, 60(6): 84-90.

        [17]Liu JJ, Hou QB, Cheng MM, et al. A simple pooling-based design for real-time salient object detection[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).June 15-20, 2019. Long Beach, CA, USA. IEEE, 2019: 3917-3926.

        [18]Huang ZY, Ye J, Wang HY, et al. Evaluating STU-net for brain tumor segmentation[M]//Brain Tumor Segmentation, and Cross-Modality Domain Adaptation for Medical Image Segmentation. Cham:Springer Nature Switzerland, 2024: 140-51.

        [19]Ma J, Li FF, Wang B. U-mamba: enhancing long-range dependency for biomedical image segmentation[EB/OL]. 2024: 2401.04722.https://arxiv.org/abs/2401.04722v1.

        [20]Wenderott K, Krups J, Zaruchas F, et al. Effects of artificial intelligence implementation on efficiency in medical imaging: a systematic literature review and meta-analysis[J]. NPJ Digit Med,2024, 7: 265.

        [21]賴建軍, 陳麗婷, 胡海麗, 等. 基于深度學(xué)習(xí)自動勾畫在鼻咽癌調(diào)強放射治療計劃中的系統(tǒng)性評價研究[J]. 中國現(xiàn)代醫(yī)藥雜志, 2023,25(10): 24-30.

        [22]黃 新, 王新卓, 薛 濤, 等. 鼻咽癌放射治療危及器官自動勾畫的幾何和劑量學(xué)分析[J]. 生物醫(yī)學(xué)工程與臨床, 2024, 28(1): 26-34.

        [23]Su ZY, Siak PY, Lwin YY, et al. Epidemiology of nasopharyngeal carcinoma: current insights and future outlook[J]. Cancer Metastasis Rev, 2024, 43(3): 919-39.

        [24]Azad R, Aghdam EK, Rauland A, et al. Medical image segmentation review: the success of U-net[J]. IEEE Trans Pattern Anal Mach Intell, 2024, 46(12): 10076-95.

        [25]Liu JJ, Hou Q, Liu ZA, et al. PoolNet+ : exploring the potential of pooling for salient object detection[J]. IEEE Trans Pattern Anal Mach Intell, 2023, 45(1): 887-904.

        [26]Hu K, Chen W, Sun Y, et al. PPNet: Pyramid pooling based network for polyp segmentation[J]. Comput Biol Med, 2023, 160: 107028.

        [27]Wu YH, Liu Y, Zhan X, et al. P2T: pyramid pooling transformer for scene understanding[J]. IEEE Trans Pattern Anal Mach Intell, 2023,45(11): 12760-71.

        [28]Wang LW, Lee CY, Tu ZW, et al. Training deeper convolutional networks with deep supervision[EB/OL]. 2015: 1505.02496. https://arxiv.org/abs/1505.02496v1.

        [29]Zhang LF, Chen X, Zhang JB, et al. Contrastive deep supervision[M]//Computer Vision-ECCV 2022. Cham: Springer Nature Switzerland, 2022: 1-19.

        [30]Ahmad S, Ullah Z, Gwak J. Multi-teacher cross-modal distillation with cooperative deep supervision fusion learning for unimodal segmentation[J]. Knowl Based Syst, 2024, 297: 111854.

        [31]Umer MJ, Sharif MI, Kim J. Breast cancer segmentation from ultrasound images using multiscale cascaded convolution with residual attention-based double decoder network[J]. IEEE Access,2024, 12: 107888-902.

        [32]Wang J, Liang J, Xiao Y, et al. TaiChiNet: negative-positive crossattention network for breast lesion segmentation in ultrasound images[J]. IEEE J Biomed Health Inform, 2024, 28(3): 1516-27.

        (編輯:林 萍)

        国产一女三男3p免费视频| 亚洲AV无码中文AV日韩A| 中文字幕乱码亚洲美女精品一区| 精品一区二区三区女同免费| 中文字幕精品亚洲字幕| 国产极品裸体av在线激情网| 国产成人综合日韩精品无码| 日本亚洲色大成网站www久久| 国产精品亚洲А∨天堂免下载| 日本最新一区二区三区视频| 夜夜骚久久激情亚洲精品| 久久婷婷五月综合色高清| 无码人妻精品丰满熟妇区| 欧美情侣性视频| 亚洲成a人片在线观看高清| 国产麻豆一区二区三区在| 西西午夜无码大胆啪啪国模| 久久久久国产一区二区三区| 99热成人精品免费久久| 亚洲免费成年女性毛视频| 在线观看视频国产一区二区三区| 欧美午夜理伦三级在线观看| 蜜臀av 国内精品久久久| 日本高清中文字幕一区二区三区| 亚洲一区二区高清在线| 国产三级精品三级男人的天堂| 国产亚洲精品美女久久久| 巨大欧美黑人xxxxbbbb| 视频一区二区三区中文字幕狠狠 | 加勒比无码专区中文字幕| 伊人久久综合狼伊人久久| 日韩午夜免费视频精品一区| 小辣椒福利视频导航| 精品久久综合亚洲伊人| av网站可以直接看的| 91伦理片视频国产精品久久久| 国产精品无码午夜福利| 亚洲最新偷拍网站| 国产亚洲亚洲精品视频| 一区二区三区字幕中文| 明星性猛交ⅹxxx乱大交|