亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進U2-Net網絡的多裂肌MRI圖像分割算法

        2024-06-20 20:18:58王子民周悅關挺強郭欣胡巍王茂
        南京信息工程大學學報 2024年3期
        關鍵詞:特征信息方法

        王子民 周悅 關挺強 郭欣 胡巍 王茂

        摘要:針對腰間盤突出患者MRI圖像多裂肌病變部位分割精度較低的問題,提出一種改進的U2-Net網絡的新模型,目標是使得編碼和解碼的子網絡通過一系列嵌套的跳躍路徑來相互連接.重新設計U2-Net模型中RSU-7、RSU-6、RSU-5、RSU-4中間的跳躍連接,RSU-4F部分不變,用來降低編碼解碼子網絡中特征圖的語義缺失.為了提取到高質量的多裂肌特征,加入通道注意力模塊,通過學習每個通道的權重,使網絡能夠更好地關注對任務有貢獻的通道,從而提升模型的性能.為驗證模型的有效性,在多裂肌MRI圖像數據集上進行實驗,發(fā)現相較于U-Net、U2-Net、U-Net++網絡結構,骰子系數(Dice)、豪斯多夫距離(HD)以及均交并比(MIoU)3個指標均有優(yōu)化.實驗結果表明,本文提出的算法對于多裂肌的MRI圖像分割有較好的效果,能夠輔助醫(yī)生對病情做出判斷.

        關鍵詞磁共振成像(MRI);深度學習;醫(yī)學圖像分割;多裂肌;注意力機制;稠密連接;U2-Net

        中圖分類號TP391.4

        文獻標志碼A

        0引言

        腰椎間盤突出癥(LumbarDiscHerniation)是臨床常見病和多發(fā)病,好發(fā)于成年人.至少95%的腰椎間盤突出癥發(fā)生于L4-5和L5-S1[1].國外相關研究顯示腰椎間盤突出癥發(fā)病率大約2%~3%,而35歲以上的男性發(fā)病率約4.8%,35歲以上女性發(fā)病率約2.5%[2].既往研究表明,腰痛與多裂肌萎縮密切相關[3].腰椎間盤突出癥是一種以腰椎疼痛和腿部疼痛為特征的疾病,由于纖維環(huán)破裂后動脈粥樣硬化核突出導致神經根部壓縮[4].由于腰骶部為人體主要承重部位,頻繁參與各種旋轉等大幅度動作,容易導致多裂肌疲勞和功能性下降[5],誘發(fā)腰椎間盤突出和復發(fā).肌肉萎縮在影像學上主要表現為肌肉體積縮小和肌內脂肪浸潤增加[6].磁共振成像(MagneticResonanceImaging,MRI)是影像學診斷進入三維空間的標志,對軟組織的分辨率高,可以準確看到椎間盤的突出位置、突出方向和突出大小,可以提供更準確的影像學診斷信息,在臨床上使用較多,是影像學中診斷腰間盤突出癥的首選方法[7].然而,由于MRI圖像的對比度較低,醫(yī)生需要手動描繪多裂肌的橫截面積和脂肪浸潤情況,而不同的醫(yī)生可能會導致閱片結果的差異.因此,運用深度學習技術對多裂肌病變區(qū)域,即多裂肌脂肪浸潤面積進行分割,可有效提升診斷準確性,為醫(yī)生的診療工作提供更加便捷的條件.

        目前,脊椎CT圖像分割方法主要有基于傳統(tǒng)方法和基于深度學習方法兩類.傳統(tǒng)脊椎CT圖像分割方法,例如:Aslan等[8]使用統(tǒng)計水平集方法分割脊椎,但該方法需要利用期望最大化算法進行初始化和參數估計;Rasoulian等[9]提出一種基于配準的脊椎CT圖像分割技術,并建立了相應統(tǒng)計的多脊椎形狀+姿勢模型,該模型可以捕獲脊椎形狀和姿態(tài)的變化,同時減少配準參數的數量;Lim等[10]提出一種改進水平集的脊椎分割框架,該框架通過Willmore流提取局部幾何形狀特征,并利用先驗形狀核密度估計器獲取所需的先驗知識,從而能夠處理因噪聲污染導致信息缺失的圖像.近年來,深度學習[11]應用廣泛,基于深度卷積神經網絡(CNN)的方法[12-13]已成功地打破傳統(tǒng)手工提取特征方法的瓶頸,特別是全卷積神經網絡[14](FullyConvolutionalNetwork,FCN)、金字塔場景解析網絡[15]、DeepLab[16]、U-Net[17]及U-Net的變體[18-20],這些基于深度學習的神經網絡因優(yōu)異的性能在醫(yī)學圖像處理中取得了不錯的成果[21-22].在針對脊椎圖像分割方法研究上,Zhang等[23]提出一種基于PointNet++的頸椎分割方法.該方法需對CT圖像進行預處理,以及對PointNet++分割結果做后處理,這雖然提高了分割的準確度,但是僅使用了點云邊緣信息,強度信息利用率較低,導致對一些精細的結構分割不全.Kuok等[24]提出一種基于全卷積密集網絡的胸腰椎分割方法.該方法將脊椎分割結果和椎間平面檢測結果相結合重建出了脊椎的三維模型,但是由于數據集較少,導致網絡泛化性能不夠.為獲取更多的細節(jié)信息,許多學者研究了不同形式的注意力模塊,例如:Ramachandran等[25]利用一種自注意模塊取代空間卷積,以提高性能并減少計算工作量;Hu等[26]提出采用壓縮和激勵注意力模塊構建卷積特征通道之間的相互依賴性,用以提高網絡的特征表示能力;Oktay等[27]提出AttentionU-Net,該網絡設計了注意力門控機制(AttentionGate,AG),然后將AG模塊替換U-Net的跳躍連接,有效地抑制了網絡對無關區(qū)域的學習,同時使網絡關注學習與任務有關區(qū)域;Zhou等[28]提出U-Net++,該網絡在U-Net基礎上設計了嵌套結構和密集跳躍連接,解決了不同場景應用對網絡深度的要求,同時使解碼器更好地融合多尺度信息;Huang等[29]提出U-Net3+,它采用全尺度跳躍連接將不同尺度特征圖的語義信息相結合,同時通過深度監(jiān)督從全尺度聚合的特征圖中學習層次表示;Qin等[30]提出的U2-Net網絡已經在顯著性目標檢測、人像分割、自然場景分割等任務上取得了顯著的成果,并成為圖像分割領域的重要參考模型之一.相比于以上介紹的網絡,U2-Net[30]具有更深的網絡結構和更多的卷積模塊,它能夠更好地處理復雜的圖像場景,提取更豐富的特征信息,并且性能更優(yōu).但上述模型普遍存在邊界預測不準確、圖像細節(jié)分割不夠明確的問題.

        本文主要工作包括:

        1)基于U2-Net[30]網絡,引入稠密連接模塊,重新設計RSU-7層、RSU-6層、RSU-5層、RSU-4層的跳躍連接,以此抓取不同層次的特征,獲得不同層次的感受野;

        2)引入通道注意力機制模塊,每個特征賦予不同的權重,從而關注重要的特征并抑制不重要的特征,提高分割精度.

        1本文方法

        1.1實驗數據介紹

        本研究的實驗數據由合作醫(yī)院提供.研究使用的初始數據集包括310幅腰椎間盤突出患者的多裂肌MRI圖像,這些圖像均呈現了多裂肌在腰椎間盤突出患者中的形態(tài).多裂肌的脂肪浸潤由兩名外科醫(yī)生使用labelme圖像標注軟件標注,并由一名脊柱專家進行檢查.在擴充數據并根據患者分配選擇數據集后,984個數據集被用作訓練集、108個被用作驗證集、152個被用作測試集.

        1.2數據預處理和數據擴增

        在成像過程中,MRI圖像或多或少會受到設備電壓、信號強度和受試者衣著的影響.這些因素使得圖像信噪比下降,導致最終結果不理想.因此,選擇高斯濾波器來降低圖像噪聲.由于分割出的多發(fā)性畸形區(qū)域與其他區(qū)域的灰度差異較小,對分割的準確性略有影響,因此,對圖像進行自適應直方圖平滑處理,增加多發(fā)性畸形區(qū)域與其他區(qū)域的對比度,這樣可以減少無關區(qū)域對目標區(qū)域分割的影響.此外,由于數據集樣本量少,對數據進行數據擴增,具體的方法包括:旋轉操作設置為順時針、逆時針旋轉30°和60°;鏡像操作設置為水平翻轉、垂直旋轉.數據預處理后的結果如圖1所示.

        1.3SE-U2Net++算法

        U2-Net網絡的結構類似于U-Net網絡,它是一種U型網絡結構,具有編碼和解碼的能力.U2-Net網絡模型具備多層特征提取的能力,且其網絡結構更為復雜,能夠更加深入地挖掘圖像信息的多層次結構.由于采用了殘差結構,因此降低了對計算和內存的需求,進而提高了系統(tǒng)的效率和可靠性.

        本模型(SE-U2Net++)在U2-Net整體編解碼網絡結構中還嵌套了編解碼的子網絡,在此基礎上重新設計U2-Net模型中RSU-7、RSU-6、RSU-5、RSU-4中間的跳躍連接,RSU-4F部分不變.這些重新設計的跳躍連接部分即為稠密連接模塊,可以降低編碼和解碼過程中的語義缺失.此外,為了提取到高質量的多裂肌特征,還加入了通道注意力模塊,通過使用注意機制來增加表現力、聚焦重要特征、抑制無關特征,有效地保持網絡信息的流動性,增強了表達能力.本文提出的分割模型如圖2所示.

        1.3.1稠密連接模塊

        在深度學習中,長連接(LongConnections)和短連接(ShortConnections)是兩種常見的連接方式.長連接可以幫助緩解梯度消失或梯度爆炸的問題,特別是在深層網絡中,由于信息可以跨層級傳播,梯度可以更輕松地通過網絡傳播到較淺的層,從而使得網絡更容易訓練.此外,長連接可以促進特征的重用和信息的傳遞.通過將前面層的特征與后面層的特征相加或連接,可以使得網絡更加關注重要的特征,并避免信息丟失,這對于處理細節(jié)信息和保留上下文信息都是有益的.而短連接可以實現多層特征的融合,從而允許網絡同時利用不同層級的特征信息.這樣的融合機制可以提高網絡的表示能力,增強對不同尺度和抽象級別的特征的理解.同時,短連接可以傳遞低層特征的細節(jié)信息到高層,這對于任務中需要處理細粒度結構或紋理的情況非常有用.通過保留和傳遞細節(jié)信息,網絡可以更好地還原原始輸入的細節(jié).因此,長連接和短連接共同作用可以提高網絡的性能和表達能力.

        本文通過將嵌套的、密集的長短跳躍連接相結合的網絡結構來構建稠密連接模塊.因此,相較于U2-Net的樸素跳躍連接方式,本文所提出的稠密連接模塊能夠更加精準地捕捉不同層次的特征,并且對于不同大小的目標對象表現出了不同的敏感度.因此,通過特征疊加的方式,稠密連接模塊能夠將不同層次的特征融合在一起,使本文網絡擁有不同大小的感受野.RSU-7層、RSU-6層、RSU-5層、RSU-4層重新設計后的稠密連接如圖3所示:黑色部分呈現出U2-Net結構的原始形態(tài),由編碼器下采樣、解碼器上采樣以及黑色連線的跳躍連接3個組成部分構成;粉色部分表示在跳躍連接上的稠密卷積塊,包括卷積和上采樣2部分;淡藍色連線部分就是重新設計后的跳躍連接,為子網絡提供了跳躍連接.

        1.3.2通道注意力模塊

        通道注意力機制(ChannelAttentionMechanism)是一種用于增強深度學習模型對不同通道的關注程度的注意力機制.它通過自動學習每個通道的重要性,調整通道的特征表示,以提升模型在計算機視覺任務中的性能.在通道注意力模塊中,特征的每一個通道都代表著一個專門的檢測器,因此,通道注意力關注的是什么樣的特征是有意義的.

        對于一張輸入的特征圖A,它的尺寸大小為xji.為匯總空間特征,采用全局平均池化和最大池化兩種方式來分別利用不同的信息,可以通過給每個特征賦予不同的權重,從而關注重要的特征而抑制不重要的特征.對于輸入的特征圖A通過式(1)得到通道注意力矩陣X,它的尺寸大小為C×C.其中xji表征的是通道i對通道j的影響.A重組后的特征矩陣與X進行相乘后,再進行重組并分配一個β權重,然后與原始的A進行相加得到最終輸出的通道注意力機制特征圖E,它的尺寸大小為C×H×W,即式(2).

        通道注意力機制可以增強網絡對不同通道的表示能力,使網絡能夠自動學習到每個通道的重要性,從而增強對特定特征的關注能力.通過調整通道的特征表示,通道注意力可以幫助模型更好地區(qū)分和捕捉不同特征之間的信息,從而提升模型在計算機視覺任務中的性能.通道注意力還可以在一定程度上減少網絡參數和計算量,通過自適應地調整通道的權重,使得模型更加緊湊,僅保留對任務有用的通道信息,減少冗余和不必要的計算,從而降低模型的存儲和計算成本.通道注意力流程如圖4所示.

        2實驗結果分析

        2.1參數設置

        本文所采用的實驗環(huán)境為:深度學習框架PyTorch1.1,Python3.6,Windows10,處理器Intel(R)Core(TM)i7-6500UxCPU@3.80GHz,2.50GHz.使用Adam優(yōu)化算法,初始學習率為0.001,用于計算梯度以及梯度平方的運行平均值的系數分別為0.9、0.999.將多裂肌MRI圖像按照4∶1的比例分為訓練集和測試集,BatchSize設為4,共計進行150個epoch.

        2.2評價指標

        為了量化本模型的分割結果,本文將從骰子系數(Dice)、豪斯多夫距離(HausdorffDistance,HD)以及均交并比(MeanIntersectionoverUnion,MIoU)3個維度來評價分割結果的優(yōu)劣性.Dice系數是一個綜合性指標,可以從像素層面衡量分割結果中正確分割、錯誤分割以及欠分割程度,但是對于分割結果中的離群值無法表征,因此引入了HD,用于評價病灶標簽和分割結果邊緣的差異性.與此同時,引入MIoU評價指標,來判斷預測像素的準確率.Dice、MIoU數值越大,HD數值越小時,表示該模型性能越好.它們的計算公式如式(4)—(8)所示.其中,k為類別數,i表示真實值,X和Y分別表示預測集和Ground-Truth像素集.TP、FN、FP、TN如表1所示.

        2.3實驗結果與分析

        為驗證實驗結果準確性,共進行15次重復性實驗.所獲得的MIoU、HD、Dice評價指標的均值、方差、中值已被記錄在表2中.根據表2所示:MIoU、Dice、HD的平均值分別為0.657、0.784和3.821;方差均小于0.01,表明模型具有較高的可靠性和穩(wěn)定性.通過綜合3項指標的平均值和方差,可以得出結論:所提出的模型表現出較高的穩(wěn)定性和分割效果,能夠成功地完成多裂肌MRI圖像的分割任務.

        圖5為使用改進的U2-Net分割模型對多裂肌MRI圖像實現的分割效果.圖5中第1列為輸入到分割網絡的原始多裂肌MRI圖像,第2列為Ground-Truth(應與分割結果進行對照的正確數據標簽),第3列為本文模型的分割結果.對Ground-Truth和本文模型的分割結果進行對比可得,本文所提出的模型有較好的分割效果.

        2.4多裂肌MRI數據集實驗結果

        2.4.1本文模型與傳統(tǒng)機器學習方法對比

        為了驗證本文所提出的模型相對于多裂肌MRI圖像分割的性能提升,將本文模型與全局閾值分割方法(GlobalThresholdSegmentationMethod)[31]、自適應閾值分割方法(AdaptiveThresholdSegmentationMethod)[32]、邊緣檢測分割法(EdgeDetectionSegmentationMethod)[33]3種傳統(tǒng)機器學習方法進行對比研究,結果如圖6所示.

        與深度學習方法相比,傳統(tǒng)機器學習方法在處理復雜圖像和分割任務時存在一定的限制.全局閾值分割方法和自適應閾值分割方法適用于目標灰度分布均勻、變化小,目標和背景灰度差異較明顯的圖像,簡單易實現且效率高.然而,該類方法通常只考慮像素自身的灰度值,未考慮圖像的語義、空間等特征信息,且易受噪聲影響,對于復雜的MRI圖像,閾值分割的效果并不理想.基于邊緣的圖像分割方法對像素灰度值具有明顯突變的圖片處理效果較好,但該算法易受噪聲影響,同樣不適于分割復雜MRI圖像[34].鑒于MRI圖像中的病變區(qū)域往往呈現復雜多樣的形態(tài)和紋理,不同病例之間的病變特征可能存在多樣性.傳統(tǒng)機器學習算法通常依賴于手工設計的特征,而這在MRI圖像病變分割任務中是一項具有挑戰(zhàn)性的工作.手工設計的特征往往難以充分反映病變區(qū)域的復雜信息,難以捕捉其內在的復雜性和多樣性,從而導致在不同病變的準確分割上存在困難.

        綜上,本文方法基于深度學習,可以自動學習特征表示,具有更強大的表征能力,能夠從原始數據中學習高級抽象特征,在復雜圖像分割任務中表現更加優(yōu)越.

        2.4.2本文模型與經典網絡對比

        為了驗證本文所提出的模型相對于多裂肌MRI圖像分割的性能提升,進行U2-Net[30]、U-Net[17]、U-Net++[28]、CE-Net[35]的對比研究,分割效果如表3所示.

        相較于經典網絡U2-Net、U-Net、U-Net++、CE-Net,本文算法加入的稠密連接模塊可以使模型在信息傳遞、梯度傳播、特征復用、改進細節(jié)預測方面取得優(yōu)勢[28,36],而通道注意力模塊則使本模型在減少參數和計算復雜性、抑制噪聲和冗余、增強對重要信息的關注方面取得優(yōu)勢[37].根據表3所示,本文所提出的模型在Dice、HD、MIoU3個指標上均獲得了提升.其中:相較于U2-Net網絡,本文模型的MIoU提高了5.89%,HD降低8.10%,Dice提高10.58%;相較于U-Net,本文模型的MIoU提高了16.16%,HD降低9.24%,Dice提高10.58%;相較于U-Net++,本文模型的MIoU提高了15.74%,HD降低13.18%,Dice提高10.42%;相較于CE-Net,本文模型的MIoU提高了15.33%,HD降低12.50%,Dice提高14.96%.實驗結果表明,本文所提出的模型在多裂肌MRI圖像的精準分割和病灶定位方面,具備相當的優(yōu)越性,其高效的診斷能力為醫(yī)生提供了有力支持.

        為了更加直觀地展示各種預測方法的差異,將其可視化結果呈現于圖7中.Input表示原始圖像,而Ground-Truth則表示多裂肌中脂肪浸潤部分的特征,接著是U-Net、U2-Net、U-Net++以及本文所提出的模型方法對多裂肌脂肪浸潤部分進行的預測結果.

        2.4.3消融實驗

        為了衡量通道注意力機制與稠密連接模塊融合對實驗結果的影響,設計了模型消融實驗,實驗結果如表4所示.以U2-Net為基礎網絡,進行了4項對比實驗:1)不添加任何模塊;2)添加稠密連接模塊,不添加通道注意力模塊;3)添加通道注意力模塊,不添加稠密連接模塊;4)添加稠密連接模塊和通道注意力模塊.結果表明:相較于原始的U2-Net網絡,本文模型的MIoU提高了5.89%,HD降低8.10%,Dice提高10.58%;相較于只增添稠密連接模塊,本文模型在MIoU提高了4.69%,HD降低6.74%,Dice提高6.81%;相較于只增添通道注意力模塊,本文模型在MIoU提高了2.21%,HD降低2.88%,Dice提高0.77%.此結果表明,在U2-Net網絡基礎上添加通道注意力模塊,同時對RSU-7、RSU-6、RSU-5、RSU-4層添加稠密連接模塊可以提高網絡性能.

        3結語

        為擴大模型的感受野,本文設計了稠密連接模塊,它將長、短跳躍連接相結合,以捕捉不同層次的特征.同時,還引入了通道注意力模塊,以學習不同通道之間的關聯(lián)和重要性,從而增強對特定特征的關注能力.最終,將這種稠密連接與U2-Net網絡相結合,設計了RSU-7、RSU-6、RSU-5、RSU-4層的跳躍連接,并在每一層的Encoder和Decoder加入了通道注意力機制.實驗結果顯示,本文模型顯著提升了對腰間盤突出患者多裂肌脂肪浸潤部分的分割精度,同時在病灶的定位位置方面表現出較高的準確性,為臨床醫(yī)生提供了客觀高效的決策支持,從而有助于對腰間盤突出患者的診斷、治療方案的制定以及預后等方面做出更加精準的判斷.

        數據可用性聲明可以向通信作者索取支持本研究結果的數據.

        參考文獻

        References

        [1]

        DeyoRA,MirzaSK.Herniatedlumbarintervertebraldisk[J].NewEnglandJournalofMedicine,2016,374(18):1763-1772

        [2]VialleLR,VialleEN,HenaoJES,etal.Lumbardischerniation[J].RevistaBrasileiradeOrtopedia,2015,45(1):17-22

        [3]SchryverA,RivazH,RizkA,etal.UltrasonographyoflumbarmultifidusmuscleinuniversityAmericanfootballplayers[J].MedicineandScienceinSportsandExercise,2020,52(7):1495-1501

        [4]陳齊齊,陳立平,金軍,等.多裂肌橫截面積與經皮椎間孔鏡治療腰椎間盤突出癥患者預后的關系[J].實用醫(yī)學雜志,2021,37(9):1136-1140

        CHENQiqi,CHENLiping,JINJun,etal.Relationshipbetweencross-sectionalareaofmultifidusmuscleandprognosisofpatientswithlumbardischerniationtreatedbypercutaneousendoscopictransforaminaldiscectomy[J].TheJournalofPracticalMedicine,2021,37(9):1136-1140

        [5]WardSR,KimCW,EngCM,etal.Architecturalanalysisandintraoperativemeasurementsdemonstratetheuniquedesignofthemultifidusmuscleforlumbarspinestability[J].TheJournalofBoneandJointSurgeryAmericanVolume,2009,91(1):176-185

        [6]鈄大雄,王君瑞,陳紹東,等.單側腰痛患者腰椎多裂肌萎縮相關因素研究[J].浙江醫(yī)學,2014,36(10):847-849,853

        DOUDaxiong,WANGJunrui,CHENShaodong,etal.Factorsrelatedtolumbarmultifidusmuscleatrophyinpatientswithunilaterallowbackpain[J].ZhejiangMedicalJournal,2014,36(10):847-849,853

        [7]KalichmanL,HodgesP,LiL,etal.Changesinparaspinalmusclesandtheirassociationwithlowbackpainandspinaldegeneration:CTstudy[J].EuropeanSpineJournal,2010,19(7):1136-1144

        [8]AslanMS,FaragAA,ArnoldB,etal.Segmentationofvertebraeusinglevelsetswithexpectationmaximizationalgorithm[C]//2011IEEEInternationalSymposiumonBiomedicalImaging:fromNanotoMacro.March30-April2,2011,Chicago,IL,USA.IEEE,2011:2010-2013

        [9]RasoulianA,RohlingR,AbolmaesumiP.Lumbarspinesegmentationusingastatisticalmulti-vertebraeanatomicalshapeposemodel[J].IEEETransactionsonMedicalImaging,2013,32(10):1890-1900

        [10]LimPH,BagciU,BaiL.Introducingwillmoreflowintolevelsetsegmentationofspinalvertebrae[J].IEEETransactionsonBiomedicalEngineering,2013,60(1):115-122

        [11]HintonGE,SalakhutdinovRR.Reducingthedimensionalityofdatawithneuralnetworks[J].Science,2006,313(5786):504-507

        [12]許美賢,鄭琰,周若蘭,等.基于BP神經網絡和多元線性回歸的辛烷值預測[J].南京信息工程大學學報(自然科學版),2023,15(4):379-392

        XUMeixian,ZHENGYan,ZHOURuolan,etal.OctanenumberpredictionbasedonBPneuralnetworkandmultiplelinearregression[J].JournalofNanjingUniversityofInformationScience&Technology(NaturalScienceEdition),2023,15(4):379-392

        [13]李輝,閔巍慶,王致嶺,等.基于圖卷積網絡的多標簽食品原材料識別[J].南京信息工程大學學報(自然科學版),2019,11(6):743-750

        LIHui,MINWeiqing,WANGZhiling,etal.Multi-labelfoodingredientrecognitionviagraphconvolutionnetwork[J].JournalofNanjingUniversityofInformationScience&Technology(NaturalScienceEdition),2019,11(6):743-750

        [14]ShelhamerE,LongJ,DarrellT.Fullyconvolutionalnetworksforsemanticsegmentation[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2017,39(4):640-651

        [15]ZhaoHS,ShiJP,QiXJ,etal.Pyramidsceneparsingnetwork[C]//2017IEEEConferenceonComputerVisionandPatternRecognition(CVPR).July21-26,2017,Honolulu,HI,USA.IEEE,2017:6230-6239

        [16]ZhouYP,ChangHY,LuXL,etal.DenseUNet:improvedimageclassificationmethodusingstandardconvolutionanddensetransposedconvolution[J].Knowledge-BasedSystems,2022,254:109658

        [17]RonnebergerO,FischerP,BroxT.U-net:convolutionalnetworksforbiomedicalimagesegmentation[C]//InternationalConferenceonMedicalImageComputingandComputer-AssistedIntervention.Cham:Springer,2015:234-241

        [18]DiakogiannisFI,WaldnerF,CaccettaP,etal.ResUNet-a:adeeplearningframeworkforsemanticsegmentationofremotelysenseddata[J].ISPRSJournalofPhotogrammetryandRemoteSensing,2020,162:94-114

        [19]ThomasE,PawanSJ,KumarS,etal.Multi-res-attentionUNet:aCNNmodelforthesegmentationoffocalcorticaldysplasialesionsfrommagneticresonanceimages[J].IEEEJournalofBiomedicalandHealthInformatics,2021,25(5):1724-1734

        [20]ChenW,LiuB,PengS,etal.S3D-UNet:separable3DU-Netforbraintumorsegmentation[C]//Brainlesion:Glioma,MultipleSclerosis,StrokeandTraumaticBrainInjuries:4thInternationalWorkshop,BrainLes2018,HeldinConjunctionwithMICCAI2018.September16,2018,Granada,Spain.SpringerInternationalPublishing,2019:358-368

        [21]何曉云,許江淳,陳文緒.基于改進U-Net網絡的眼底血管圖像分割研究[J].電子測量與儀器學報,2021,35(10):202-208

        HEXiaoyun,XUJiangchun,CHENWenxu.ResearchonfundusbloodvesselimagesegmentationbasedonimprovedU-Netnetwork[J].JournalofElectronicMeasurementandInstrumentation,2021,35(10):202-208

        [22]趙其杰,周安穩(wěn),朱俊豪,等.基于PE-Vnet網絡的三維骨骼圖像分割方法[J].儀器儀表學報,2020,41(7):243-251

        ZHAOQijie,ZHOUAnwen,ZHUJunhao,etal.Segmentationmethodofthree-dimensionalboneimagebasedonPE-Vnetnetwork[J].ChineseJournalofScientificInstrument,2020,41(7):243-251

        [23]ZhangL,WangH.AnovelsegmentationmethodforcervicalvertebraebasedonPointNet++andconvergesegmentation[J].ComputerMethodsandProgramsinBiomedicine,2021,200:105798

        [24]KuokCP,HsueJY,ShenTL,etal.AneffectiveCNNapproachforvertebraesegmentationfrom3DCTimages[C]//2018PacificNeighborhoodConsortiumAnnualConferenceandJointMeetings(PNC).October27-30,2018,SanFrancisco,CA,USA.IEEE,2018:1-6

        [25]RamachandranP,ParmarN,VaswaniA,etal.Stand-aloneself-attentioninvisionmodels[C]//Proceedingsofthe33rdInternationalConferenceonNeuralInformationProcessingSystems,2019:68-80

        [26]HuJ,ShenL,SunG.Squeeze-and-excitationnetworks[C]//2018IEEE/CVFConferenceonComputerVisionandPatternRecognition.June18-23,2018,SaltLakeCity,UT,USA.IEEE,2018:7132-7141

        [27]OktayO,SchlemperJ,FolgocLL,etal.AttentionU-Net:learningwheretolookforthepancreas[J].arXive-print,2018,arXiv:1804.03999

        [28]ZhouZW,SiddiqueeMMR,TajbakhshN,etal.U-Net++:anestedU-Netarchitectureformedicalimagesegmentation[C]//4thInternationalWorkshoponDeepLearninginMedicalImageAnalysisandMultimodalLearningforClinicalDecisionSupport.September20,2018,Granada,Spain.SpringerInternationalPublishing,2018:3-11

        [29]HuangHM,LinLF,TongRF,etal.U-Net3:afull-scaleconnectedUNetformedicalimagesegmentation[C]//2020IEEEInternationalConferenceonAcoustics,SpeechandSignalProcessing(ICASSP).May4-8,2020,Barcelona,Spain.IEEE,2020:1055-1059

        [30]QinXB,ZhangZC,HuangCY,etal.U2-Net:goingdeeperwithnestedu-structureforsalientobjectdetection[J].PatternRecognition,2020,106:107404

        [31]PunT.Anewmethodforgrey-levelpicturethresholdingusingtheentropyofthehistogram[J].SignalProcessing,1980,2(3):223-237

        [32]NiblackW.Anintroductiontodigitalimageprocessing[M].London:StrandbergPublishingCompany,1985

        [33]KhanJF,BhuiyanSMA,AdhamiRR.Imagesegmentationandshapeanalysisforroad-signdetection[J].IEEETransactionsonIntelligentTransportationSystems,2011,12(1):83-96

        [34]黃鵬,鄭淇,梁超.圖像分割方法綜述[J].武漢大學學報(理學版),2020,66(6):519-531

        HUANGPeng,ZHENGQi,LIANGChao.Overviewofimagesegmentationmethods[J].JournalofWuhanUniversity(NaturalScienceEdition),2020,66(6):519-531

        [35]GuZW,ChengJ,FuHZ,etal.CE-net:contextencodernetworkfor2Dmedicalimagesegmentation[J].IEEETransactionsonMedicalImaging,2019,38(10):2281-2292

        [36]SinghD,KumarV,KaurM.Denselyconnectedconvolutionalnetworks-basedCOVID-19screeningmodel[J].AppliedIntelligence,2021,51(5):3044-3051

        [37]WooS,ParkJ,LeeJY,etal.CBAM:convolutionalblockattentionmodule[C]//EuropeanConferenceonComputerVision.Cham:Springer,2018:3-19

        SegmentationofmultifidusmuscleMRIimagesviaimprovedU2-Net

        WANGZimin1ZHOUYue1GUANTingqiang1GUOXin1HUWei2WANGMaofa1

        1SchoolofComputerScienceandInformationSecurity,GuilinUniversityofElectronicTechnology,Guilin541004,China

        2LiuzhouPeoplesHospital,Liuzhou545006,China

        AbstractToaddressthelowsegmentationaccuracyofmultifidusmusclelesionsitesinMRIimagesofpatientswithlumbardischerniation,thispaperproposesanewmodeltoimprovetheU2-Netnetworkwiththegoalthattheencodinganddecodingsubnetworksareinterconnectedbyaseriesofnestedjumppaths.Toreducethesemanticmissingoffeaturemapsintheencodinganddecodingsubnetworks,thejumpconnectionsinthemiddleofRSU-7,RSU-6,RSU-5,andRSU-4intheU2-Netmodelareredesigned,whiletheRSU-4Fpartremainsunchanged.Inaddition,thechannelattentionmoduleisaddedtoenablethenettofocusonchannelsofhighercontributiontotask,thusextracthighqualitymultifractalmusclefeatures.TheexperimentsonthemultifidusmuscleMRIimagedatasetshowthattheimprovedU2-NetoutperformsU-Net,U2-NetandU-Net++networkinindicatorsofDice,HDandMIoU.ItcanbeconcludedthattheproposedapproachhasgoodperformanceonMRIimagesegmentationofmultifidusmuscle,whichcanassistdoctorstomakediagnosis.

        Keywordsmagneticresonanceimaging(MRI);deeplearning;medicalimagesegmentation;multifidusmuscle;attentionmechanism;thicklink;U2-Net

        猜你喜歡
        特征信息方法
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        抓住特征巧觀察
        訂閱信息
        中華手工(2017年2期)2017-06-06 23:00:31
        可能是方法不對
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        捕魚
        展會信息
        中外會展(2014年4期)2014-11-27 07:46:46
        線性代數的應用特征
        河南科技(2014年23期)2014-02-27 14:19:15
        99re免费在线视频| 五月综合激情婷婷六月| 亚洲裸男gv网站| 国产在线一91区免费国产91| 不打码在线观看一区二区三区视频| 亚洲视频在线观看第一页| 久久伊人少妇熟女大香线蕉| 女同久久精品国产99国产精品| 91免费国产| 国产av丝袜熟女丰满一区二区| 乱中年女人伦av三区| 国产熟妇搡bbbb搡bbbb搡| 国产一区二区三区免费精品| 亚洲色图偷拍自拍在线| 国产内射爽爽大片视频社区在线 | 成年视频网站在线观看777| av在线播放免费观看| 比较有韵味的熟妇无码| 国产精品爽爽va在线观看无码| 杨幂国产精品一区二区| 亚洲不卡一区二区视频| 粉嫩被粗大进进出出视频| 精品国产AⅤ一区二区三区4区| 亚洲精品成人久久av| 亚洲精品久久国产精品| 俺来也俺去啦最新在线| 九九99久久精品在免费线97| 91盗摄偷拍一区二区三区| 内射人妻视频国内| 国产欧美精品在线一区二区三区| 亚洲国产成人精品久久成人| 国产午夜激无码av毛片不卡| 国产成人精品999在线观看| 午夜国产精品久久久久| 丰满又紧又爽又丰满视频| 中文字幕av一区二区三区人妻少妇 | 国产边摸边吃奶叫床视频| 一本大道东京热无码中字| 国产精品二区三区在线观看| 隔壁老王国产在线精品| 波多野结衣免费一区视频|