亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        PRA-UNet3+:全尺度跳躍連接CT肝臟圖像分割模型

        2023-03-08 10:56:52鐘經(jīng)緯
        軟件導(dǎo)刊 2023年2期
        關(guān)鍵詞:編碼器邊緣注意力

        鐘經(jīng)緯

        (江南大學(xué) 人工智能與計(jì)算機(jī)學(xué)院,江蘇 無錫 214122)

        0 引言

        近年來,由于不健康的飲食與作息習(xí)慣,全球肝癌發(fā)病率持續(xù)上升,據(jù)世界衛(wèi)生組織/國際癌癥研究機(jī)構(gòu)統(tǒng)計(jì)報告[1],2020 年全球肝癌新發(fā)病例數(shù)為90.6 萬例,其中中國占全球新發(fā)肝癌病例的45.3%,肝癌已經(jīng)成為影響我國居民健康的重大公共衛(wèi)生問題。多種原因都可導(dǎo)致肝癌發(fā)病率升高,且肝癌起病隱匿、早期發(fā)現(xiàn)困難、中晚期治療復(fù)雜且效果差異大,因此當(dāng)今肝癌治療依然是一個比較困難的醫(yī)學(xué)問題。隨著醫(yī)學(xué)影像技術(shù)與計(jì)算機(jī)技術(shù)的發(fā)展,許多研究者嘗試用計(jì)算機(jī)技術(shù)解決癌癥患者的早期確診問題[2-3],為癌癥治療爭取寶貴時間。器官定位與圖像分割是診斷治療的第一步,但由于醫(yī)學(xué)圖像,尤其是CT 圖像對比度較低,且目標(biāo)不明確,醫(yī)生在診斷時通常需耗費(fèi)大量時間與精力來估計(jì)器官的位置和大小,個人經(jīng)驗(yàn)也會影響診斷結(jié)果,導(dǎo)致在嚴(yán)肅的醫(yī)學(xué)診斷結(jié)果中夾雜了主觀性。因此,應(yīng)用計(jì)算機(jī)技術(shù)輔助診斷,構(gòu)建一種精確、快速的器官圖像分割方法對癌癥診斷及早期治療具有重要意義。

        1 相關(guān)工作

        當(dāng)前的器官圖像分割方法很多,主要分為傳統(tǒng)圖像分割方法和基于深度學(xué)習(xí)的圖像分割方法。

        1.1 傳統(tǒng)圖像分割方法

        傳統(tǒng)圖像分割方法主要包括基于閾值、邊緣和圖論的分割方法?;陂撝档姆指罘椒ǖ幕舅枷胧腔趫D像灰度特征計(jì)算一個或多個灰度閾值,并將圖像中每個像素的灰度值與閾值相比較,最后將像素根據(jù)比較結(jié)果分到合適的類別中。因此,該類方法最為關(guān)鍵的一步就是按照某個準(zhǔn)則函數(shù)求解最佳灰度閾值。Prewitt 等[4]提出一種全局單閾值分割方法,即直方圖雙峰法(mode 法)?;谶吘壍姆指罘椒ɑ诨叶戎档倪吘墮z測,是建立在邊緣灰度值會呈現(xiàn)出階躍型或屋頂型變化這一觀測基礎(chǔ)上的方法。階躍型邊緣兩邊像素點(diǎn)灰度值存在明顯差異,而屋頂型邊緣位于灰度值上升或下降的轉(zhuǎn)折處。Canny[5]提出一種邊緣角點(diǎn)和興趣點(diǎn)檢測器,命名為Canny 邊緣檢測器。基于圖論的分割方法將圖像分割問題與圖的最小割問題相關(guān)聯(lián),其本質(zhì)就是移除特定的邊,將圖劃分為若干子圖,從而實(shí)現(xiàn)分割。目前基于圖論的方法有GraphCut[6]、Grab-Cut[7]、Random Walk[8]等。

        1.2 基于深度學(xué)習(xí)的圖像分割方法

        近年來,隨著計(jì)算機(jī)技術(shù)的快速發(fā)展,深度學(xué)習(xí)技術(shù)開始大量應(yīng)用于醫(yī)學(xué)圖像分割領(lǐng)域。早期,半自動分割[9]是一種常見的分割手段。在進(jìn)行醫(yī)學(xué)圖像分割時,因?yàn)楦信d趣目標(biāo)的不同以及不同類型圖像的差異,沒有一個普遍適用的分割方法。對于同一模態(tài)的圖像,如果不能充分利用感興趣目標(biāo)和一些先驗(yàn)信息,仍然無法獲得精度較高的分割結(jié)果。該階段的分割手段往往需要一定的手工干預(yù),才能得到令人滿意的分割結(jié)果。隨后,基于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)或循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)的分割方法開始涌現(xiàn),可以快速、準(zhǔn)確地獲取圖像的自然分割結(jié)果。Long 等[10]提出全卷積神經(jīng)網(wǎng)絡(luò)(Full Convolutional Neural Network,F(xiàn)CN)用于圖像語義分割,并取得了很好的效果。FCN 能夠準(zhǔn)確、完整地定位與分割醫(yī)學(xué)圖像中的器官和病變部位,對患者的后續(xù)治療具有重要意義,因此得到了迅速發(fā)展。Olaf 等[11]提出的U-Net 網(wǎng)絡(luò)結(jié)構(gòu)特別適用于醫(yī)學(xué)圖像分割領(lǐng)域,采用編碼解碼器結(jié)構(gòu),通過跳躍連接巧妙地結(jié)合了高層和低層信息,解碼層的深層抽象信息能更好地利用編碼層傳輸?shù)臏\層信息,使得圖像分割效果較好。

        隨后,許多學(xué)者對FCN 和U-Net 進(jìn)行了研究,并在此基礎(chǔ)上提出許多新的用于醫(yī)學(xué)圖像分割各細(xì)分領(lǐng)域的網(wǎng)絡(luò)結(jié)構(gòu)。例如,Bi 等[12]提出一種新的ResNet 級聯(lián)網(wǎng)絡(luò),融合多尺度信息逐步精確定位肝臟圖像邊界;DenseNet[13]改進(jìn)了卷積塊之間的連接方式,使每個卷積塊都與其之后的卷積塊殘差相連;Kaluva 等[14]提出一種全自動的兩階段級聯(lián)網(wǎng)絡(luò),第一階段進(jìn)行肝臟圖像分割,第二階段使用第一階段的分割結(jié)果進(jìn)行肝臟定位;Li 等[15]提出H-DenseUNet探索肝臟和腫瘤圖像分割的混合特征;Christian 等[16]提出一種改進(jìn)的CT 和MRI 心臟圖像分割方法;Liao 等[17]提出一種利用卷積神經(jīng)網(wǎng)絡(luò)檢測CT 圖像中惡性結(jié)節(jié)的方法。另外,一些通用的醫(yī)學(xué)圖像分割網(wǎng)絡(luò)也相繼被提出,例如Alom 等[18]提出R2U-Net,將剩余單元與RNN 結(jié)合;Diakogiannis 等[19]提出ResUNet-a,該網(wǎng)絡(luò)是對R2U-Net 的一種改進(jìn),增加了剩余連接數(shù),并結(jié)合了金字塔場景分辨率池和多任務(wù)推理;Zhou 等[20]提出UNet++,主要對跳轉(zhuǎn)連接部分進(jìn)行了改進(jìn);Li等[21]引入注意記憶,并提出了ANU-Net;Huang 等[22]通過結(jié)合多尺度能力改進(jìn)U-Net,提出了UNet 3+網(wǎng)絡(luò)模型。近年來基于Transformer 的醫(yī)學(xué)圖像分割方法也不斷涌現(xiàn),例如Chen 等[23]提出TransUNet,首次將Transformer 引入醫(yī)學(xué)圖像分割領(lǐng)域,一方面把編碼器卷積塊替換為Transformer 塊,提取全局上下文的輸入序列信息,另一方面基于卷積的解碼器進(jìn)行上采樣,然后與高分辨率的卷積特征圖相結(jié)合,實(shí)現(xiàn)精確定位;Valanarasu等[24]提出Medical Transformer,采用局部—全局訓(xùn)練策略(LoGo),進(jìn)一步提升模型分割性能。

        為了提高醫(yī)學(xué)圖像分割精度,本文在 UNet 3+網(wǎng)絡(luò)基礎(chǔ)上引入注意力門和點(diǎn)采樣技術(shù)。注意力門可使網(wǎng)絡(luò)在訓(xùn)練過程中更加關(guān)注分割目標(biāo)區(qū)域,點(diǎn)采樣方法可提高模型判斷分割目標(biāo)邊緣像素類別的能力,改善目標(biāo)邊緣分割效果。通過在肝臟醫(yī)學(xué)圖像數(shù)據(jù)集CHAOS[25]上進(jìn)行實(shí)驗(yàn),本文提出的模型PRA-UNet3+都表現(xiàn)出一定的性能優(yōu)勢,在視覺感知上的分割效果也有明顯提升。

        2 網(wǎng)絡(luò)結(jié)構(gòu)

        2.1 注意力門

        注意力門(Attention Gate)是由Oktay 等[26]提出的,在網(wǎng)絡(luò)中引入注意力門,可幫助模型增強(qiáng)對目標(biāo)區(qū)域的學(xué)習(xí)。注意力門通過同一級編碼器特征與深層解碼器上采樣特征,學(xué)習(xí)到一個關(guān)注分割目標(biāo)結(jié)構(gòu)的注意力系數(shù),以幫助分割網(wǎng)絡(luò)的重點(diǎn)關(guān)注位置。因?yàn)椴粩噙M(jìn)行下采樣,獲得了更大的感受野,但細(xì)節(jié)被抽取,損失了語義信息,而淺層編碼器的信息更加豐富,所以淺層的編碼器信息對注意力系數(shù)的學(xué)習(xí)也是有幫助的。本文注意力門的結(jié)構(gòu)設(shè)計(jì)不僅融合了同一層編碼器信息,而且進(jìn)一步融合了所有比該層更淺層的編碼器信息。注意力模塊如圖1所示。

        Fig.1 Attention module圖1 注意力模塊

        PRA-UNet3+中注意力門計(jì)算過程如下:①注意力門有兩個輸入:一是編碼器特性(f),該特性由淺層編碼器和同層編碼器特征組成,二是上采樣信號(g),該信號是所有深層解碼器上采樣信息特征融合的結(jié)果;②經(jīng)過卷積運(yùn)算(Wf,Wg)和BatchNorm 運(yùn)算(Bf,Bg)后,將其各自的輸出進(jìn)行特征融合;③特征融合結(jié)果隨后被輸入到激活函數(shù)(ReLU,σ1(x)=max(0,x))中;④被激活后,該特征再次經(jīng)過卷積運(yùn)算(Wθ)和BatchNorm 運(yùn)算(bθ);⑤將結(jié)果輸入激活函數(shù)計(jì)算注意系數(shù)(α),讓參數(shù)在注意力門迅速收斂;⑥最后將注意力系數(shù)(α)逐點(diǎn)乘以編碼器特征以獲得輸出。

        式(1)-式(3)總結(jié)了注意力門計(jì)算過程:

        注意力門可獲得全局與局部的聯(lián)系,增強(qiáng)重要信息的學(xué)習(xí),并抑制不相關(guān)信息的學(xué)習(xí)。此外,與CNN 和RNN 相比[27],其參數(shù)更少,降低了模型的復(fù)雜性。

        2.2 點(diǎn)采樣方法

        在微觀層面上,圖像的低層由像素組成,每個像素可用一組特征向量表示。利用線性插值等方法,將特征向量均勻映射到一組標(biāo)簽上,稱為上采樣。相反,本研究使用經(jīng)典的細(xì)分策略[28],在該策略中不是對所有像素進(jìn)行上采樣,而是根據(jù)特定策略選擇一定數(shù)量的不確定像素進(jìn)行特殊處理,該方法被稱為點(diǎn)采樣。該方法對分割邊緣比較難預(yù)測準(zhǔn)確的點(diǎn)進(jìn)行二次細(xì)化預(yù)測,可提高分割邊緣點(diǎn)的判斷正確率。

        醫(yī)學(xué)圖像分割同樣存在邊緣分割困難的問題,對邊緣進(jìn)行單獨(dú)細(xì)化處理,可解決模糊分割邊界問題,提高分割性能及視覺效果。具體實(shí)施步驟如下:①當(dāng)前解碼器從深層解碼,輸入粗掩模特征圖;②點(diǎn)采樣模塊依據(jù)點(diǎn)選擇策略從粗掩模特征中選擇最不確定的一批采樣點(diǎn);③用一個多層感知機(jī)(Multilayer Perceptron,MLP)對最不確定的采樣點(diǎn)進(jìn)行細(xì)分預(yù)測,ReLU 用于激活MLP 的隱藏層,Sigmoid用于激活輸出;④點(diǎn)特征映射到編碼器特征(虛線箭頭),并替換相應(yīng)位置的特征,以獲得點(diǎn)采樣特征;⑤將上采樣特征、注意力門輸出特征與點(diǎn)采樣特征進(jìn)行特征融合,得到細(xì)掩模特征圖。

        點(diǎn)采樣模塊計(jì)算過程如圖2 所示。采樣點(diǎn)主要在分割目標(biāo)邊緣附近,且具有一定的覆蓋性,這樣才能達(dá)到較好的點(diǎn)采樣效果。傳統(tǒng)點(diǎn)選擇策略是從均勻分布的像素點(diǎn)中隨機(jī)抽取kN(k>1)個點(diǎn),但由于醫(yī)學(xué)圖像數(shù)據(jù)正負(fù)樣本不平,如背景面積大、分割目標(biāo)面積小,這種點(diǎn)選擇策略容易造成過采樣。因此,本文提出根據(jù)正負(fù)樣本點(diǎn)比例不同進(jìn)行不同比例的點(diǎn)采樣。

        Fig.2 Point sampling module圖2 點(diǎn)采樣模塊

        點(diǎn)采樣策略如下:①正樣本數(shù)量Np,負(fù)樣本數(shù)量Nt,求出正負(fù)樣本比例;②按照圖像分辨率大小設(shè)置一個采樣常數(shù)N,采樣點(diǎn)個數(shù)為mN,當(dāng)正樣本數(shù)量多時,邊采樣點(diǎn)多,反之邊采樣點(diǎn)少;③對上述mN個采樣點(diǎn)進(jìn)行粗略預(yù)測和插值操作,計(jì)算所有點(diǎn)的不確定度,重點(diǎn)關(guān)注最不確定的點(diǎn),選出amN個最不確定的點(diǎn);④除去最不確定的點(diǎn),剩下(1 -a)mN個不重要的點(diǎn)并對其進(jìn)行簡單的上采樣操作;⑤最后獲得邊緣精確分割的掩模。

        2.3 網(wǎng)絡(luò)總體結(jié)構(gòu)

        U-Net網(wǎng)絡(luò)框架及其變體在醫(yī)學(xué)圖像分割任務(wù)中得到了廣泛應(yīng)用,并取得了很好的效果。其中,U-Net++和ANU-Net 是兩種代表性的體系結(jié)構(gòu)。Huang 等[22]在UNet++基礎(chǔ)上,為將不同尺度特征圖的淺層語義信息與高層語義信息相結(jié)合,提出U-Net 3+網(wǎng)絡(luò)。PRA-UNet3+在UNet3+模型基礎(chǔ)上進(jìn)行了修改,添加注意力門模塊和點(diǎn)采樣模塊。PRA-UNet3+網(wǎng)絡(luò)架構(gòu)主干如圖3所示。

        Fig.3 PRA-UNet3+network structure圖3 PRA-UNet3+網(wǎng)絡(luò)結(jié)構(gòu)

        U-Net、U-Net++及其變體無法獲取圖像的全尺度信息,因此無法學(xué)習(xí)分割目標(biāo)的位置,分割邊界相對模糊。為了彌補(bǔ)這一不足,PRA-UNet3+借鑒U-Net 3+結(jié)構(gòu),網(wǎng)絡(luò)中每個解碼器都結(jié)合了所有淺層和深層編碼器的輸出特征,以及深一層編碼器的點(diǎn)采樣結(jié)果。組合這些信息可以捕獲細(xì)粒度和粗粒度的語義信息,但是淺層信息與深層信息以何種比例組合才能更好地關(guān)注到分割目標(biāo)區(qū)域仍是一個問題。因此,本文提出在淺層與深層特征間加入一個注意力門來學(xué)習(xí)一個注意力系數(shù),決定淺層信息與深層信息特征融合的比例,更好地關(guān)注分割目標(biāo)區(qū)域。網(wǎng)絡(luò)結(jié)構(gòu)中使用的點(diǎn)采樣模塊為改進(jìn)的點(diǎn)采樣模塊(IPR)。

        如圖4 所示,以獲取XDe_3的特征圖信息為例,闡述網(wǎng)絡(luò)組成細(xì)節(jié)。與U-Net++一樣,接受同尺度編碼器層的特征圖XEe_3,該特征需經(jīng)過64 個大小為3 × 3 的濾波器進(jìn)行卷積運(yùn)算,目的是統(tǒng)一特征圖數(shù)量,減少冗余信息。淺層編碼器XEe_1和XEe_2通過最大池化進(jìn)行下采樣,目的是統(tǒng)一特征圖分辨率。從圖4 中可知,XEe_1縮小為原,XEe_2縮小為原,隨后同樣經(jīng)過濾波器進(jìn)行卷積運(yùn)算。經(jīng)過運(yùn)算后的XEe_1、XEe_2和XEe_3進(jìn)行特征融合,即為注意力門編碼器特征輸入端。深層解碼器XDe_4和XDe_5利用雙線性插值進(jìn)行上采樣,分辨率分別放大2 倍和4 倍,同樣需要經(jīng)過64 個大小為3 × 3 的濾波器進(jìn)行卷積運(yùn)算來統(tǒng)一特征圖數(shù)量。將上述經(jīng)過運(yùn)算后的XDe_4和XDe_5進(jìn)行特征融合,即為注意力門解碼器特征輸入端。注意力門模塊獲得兩端輸入后進(jìn)行模塊內(nèi)部運(yùn)算操作,步驟如2.1 節(jié)所述。將原XDe_4輸入到改進(jìn)的點(diǎn)采樣模塊進(jìn)行計(jì)算,獲得細(xì)掩模特征,步驟如2.2 節(jié)所述。將注意力門模塊輸出特征和點(diǎn)采樣模塊輸出特征進(jìn)行特征融合,經(jīng)過320 個大小為3×3 的濾波器進(jìn)行卷積運(yùn)算、批量歸一化和ReLU 激活函數(shù)激活便獲得了XDe_3。

        Fig.4 PRA-UNet 3+decoder calculation圖4 PRA-UNet 3+解碼器計(jì)算

        3 實(shí)驗(yàn)結(jié)果及分析

        實(shí)驗(yàn)平臺為Intel Core i9-9900X 處理器,NVIDIA Ge-Force RTX 2080Ti 顯卡,Ubuntu 16.04操作系統(tǒng)。

        3.1 數(shù)據(jù)集與預(yù)處理

        本文使用CHAOS作為實(shí)驗(yàn)數(shù)據(jù)集,來自2019 ISBI調(diào)整賽。數(shù)據(jù)集包含CT和MRI兩種掃描數(shù)據(jù),本文僅采用CT數(shù)據(jù)作為實(shí)驗(yàn)數(shù)據(jù),包含40 個不同病人的腹部CT 掃描圖像。拆分后匯總得到2314個有標(biāo)簽樣本,分辨率為512 × 512。

        為了節(jié)省計(jì)算資源,便于訓(xùn)練模型,把圖像分辨率調(diào)整為128 × 128,將訓(xùn)練集、驗(yàn)證集和測試集按照6:2:2 的比例進(jìn)行劃分。實(shí)驗(yàn)前對實(shí)驗(yàn)數(shù)據(jù)進(jìn)行常規(guī)的數(shù)據(jù)增強(qiáng),例如隨機(jī)翻轉(zhuǎn)、平移縮放等,以緩解小數(shù)據(jù)集帶來的過擬合現(xiàn)象。

        3.2 評價指標(biāo)

        為評估模型性能以及與其他模型進(jìn)行比較,本文采用Dice 系數(shù)(Dice)、交并比(IoU)和 F1 分?jǐn)?shù)(F1 Score)作為評價指標(biāo)。F1 Score 指標(biāo)可同時體現(xiàn)精確率(Precision)和召回率(Recall),通常用來評價二分類模型的穩(wěn)健程度。在式(4)、式(5)中,X為預(yù)測結(jié)果,Y為真實(shí)標(biāo)簽值。在式(6)中,TP為真陽性,F(xiàn)P為假陽性,F(xiàn)N為假陰性。這3 個指標(biāo)的值越大,與實(shí)際結(jié)果的相似度越高,則分割結(jié)果越好。

        3.3 實(shí)驗(yàn)結(jié)果及分析

        為驗(yàn)證本文提出的醫(yī)學(xué)圖像分割模型在肝臟圖像分割數(shù)據(jù)集CHAOS 上的性能優(yōu)勢,將其與其他幾種經(jīng)典醫(yī)學(xué)圖像分割模型進(jìn)行比較,包括U-Net[11]、U-Net++[20]、Attention U-Net(AU-Net)[21]、Medical Transformer(MedT)以及U-Net 3+[22]。表1 為不同網(wǎng)絡(luò)模型在肝臟圖像分割數(shù)據(jù)集上的性能比較。

        Table 1 Comparison of liver image segmentation performance表1 肝臟圖像分割性能比較

        從表1 可以看出,本文提出的醫(yī)學(xué)圖像分割模型PRA-UNet3+在肝臟圖像分割任務(wù)上,3 項(xiàng)評價指標(biāo)均優(yōu)于其他模型。在測試集上平均Dice 達(dá)到0.9467,平均IoU 達(dá)到0.9623,平均F1 Score達(dá)到0.9351。

        由表1 可知,U-Net 3+融合全尺度的語義信息,在性能表現(xiàn)上優(yōu)于U-Net、U-Net++、AU-Net 這類普通的跳躍連接架構(gòu),證明了全尺度跳躍連接架構(gòu)的有效性。由于淺層語義信息中冗余信息較多,因此之前的模型在分割目標(biāo)邊緣處理以及分割目標(biāo)與背景對比度低時,分割效果并不理想。本文在U-Net 3+淺層語義信息與深層語義信息融合時,加入注意力門來過濾冗余信息的影響,并引入點(diǎn)采樣方法以解決傳統(tǒng)采樣步驟對分割目標(biāo)邊緣過采樣的問題,使得邊緣分割更加平滑。對比U-Net 3+,PRA-UNet3+平均Dice 提升了2.55%,平均IoU 提升了2.27%,平均 F1 Score 提升了2.68%,證明該模型能更好地對肝臟圖像和分割背景進(jìn)行分類,提高分割精度。為了更加直觀地對比分割效果,圖5 給出4 組肝臟圖像在不同模型下的分割結(jié)果比較。

        Fig.5 Comparison of liver image segmentation results圖5 肝臟圖像分割結(jié)果比較

        方框標(biāo)出分割效果差異較大的部分,從圖5 中可以看出PRA-UNet3+對分割邊緣的處理上更加平滑,分割正確的面積更大,避免了過分割和欠分割問題,與真實(shí)標(biāo)簽值最為接近。

        為證明模塊的有效性,同時進(jìn)行了消融實(shí)驗(yàn)。以UNet 3+作為基線網(wǎng)絡(luò),依次將注意力門模塊(AG)和改進(jìn)的點(diǎn)采樣模塊(IPR)融入其中進(jìn)行實(shí)驗(yàn)。

        (1)模塊有效性。表2 中的數(shù)據(jù)顯示,在CHAOS 數(shù)據(jù)集上,當(dāng)U-Net 3+只加入淺層與深層語義信息之間的注意力模塊時,Dice 為0.9174,相比U-Net 3+提升了6.27%;IoU 為0.9234,相比U-Net 3+提升了3.61%;F1 Score 為0.9140,相比U-Net 3+提升了 6.33%。可見引入注意力模塊的網(wǎng)絡(luò)在各個評價指標(biāo)上均有明顯提升,說明通過注意力門模塊可以提升網(wǎng)絡(luò)對重點(diǎn)分割區(qū)域的關(guān)注程度。若去除注意力模塊,只在解碼過程中加入改進(jìn)的點(diǎn)采樣模塊,使網(wǎng)絡(luò)對邊緣難分割的區(qū)域進(jìn)行細(xì)化分割,此時Dice、IoU 和F1 Score 的值分別為0.9232、0.9449 和0.9187,各指標(biāo)分別比U-Net3+網(wǎng)絡(luò)提升了6.94%、6.03%和6.88%。因此,單獨(dú)引入注意力模塊或改進(jìn)的點(diǎn)采樣模塊,對分割性能都有一定提升,證明了各模塊的有效性。詳細(xì)的消融實(shí)驗(yàn)結(jié)果比較如表2所示。

        Table 2 Results of ablation experiment on CHAOS表2 CHAOS數(shù)據(jù)集上的消融實(shí)驗(yàn)結(jié)果

        (2)改進(jìn)的點(diǎn)采樣模塊有效性。由表2 可知,相比傳統(tǒng)點(diǎn)采樣模塊(PR),改進(jìn)的點(diǎn)采樣模塊在一定程度上緩解了類樣本不平衡問題,3 個評價指標(biāo)都有所提升,Dice 提升較少,僅為0.87%,IoU 提升了2.68%,F(xiàn)1 Score 提升了1.08%。由此證明,改進(jìn)的點(diǎn)采樣模塊在本文提出架構(gòu)中是有效的。

        模型大小關(guān)系到實(shí)踐的可能性,也是評價一個模型的重要指標(biāo)。利用PyTorch 工具包對本文模型與其他模型在參數(shù)量方面進(jìn)行比較,結(jié)果如表3所示。

        Table 3 Comparison of model parameters表3 模型參數(shù)量比較

        表3 給出不同模型參數(shù)量對比。U-Net 3+由于使用全尺度的跳躍連接,參數(shù)量明顯少于 U-Net。本文模型基于U-Net 3+,參數(shù)在注意力模塊和點(diǎn)采樣模塊有所增加,參數(shù)量相比U-Net 3+增加了1.49%,但Dice 提高了2.55%,IoU 提高了2.27%,F(xiàn)1 Score 提高了2.68%,以較小的計(jì)算性能消耗為代價,帶來了比較可觀的性能提升,證明了本文模型在肝臟圖像分割任務(wù)上的優(yōu)越性。

        4 結(jié)語

        器官圖像分割是醫(yī)學(xué)圖像技術(shù)對病理分析的基礎(chǔ),也是進(jìn)行下一步深入研究的前提,所以一個好的分割方法對醫(yī)學(xué)圖像研究至關(guān)重要。本文在經(jīng)典U-Net 3+分割模型上進(jìn)行改進(jìn),在全尺度特征融合過程中加入注意力門,使模型更加關(guān)注分割目標(biāo)區(qū)域。為了解決傳統(tǒng)采樣方法造成目標(biāo)分割邊緣過采樣的問題,在上采樣過程中對分割邊緣進(jìn)行點(diǎn)采樣處理,從而改善邊緣分割判斷不準(zhǔn)確的現(xiàn)象,提高邊緣分割的平滑程度。實(shí)驗(yàn)結(jié)果證明,本文提出的模型PRA-UNet3+在對肝臟圖像分割時效果明顯提升,用較小的性能開銷,使評價指標(biāo)提升了2%以上。

        猜你喜歡
        編碼器邊緣注意力
        讓注意力“飛”回來
        基于FPGA的同步機(jī)軸角編碼器
        “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
        傳媒評論(2017年3期)2017-06-13 09:18:10
        一張圖看懂邊緣計(jì)算
        基于PRBS檢測的8B/IOB編碼器設(shè)計(jì)
        A Beautiful Way Of Looking At Things
        JESD204B接口協(xié)議中的8B10B編碼器設(shè)計(jì)
        電子器件(2015年5期)2015-12-29 08:42:24
        多總線式光電編碼器的設(shè)計(jì)與應(yīng)用
        在邊緣尋找自我
        雕塑(1999年2期)1999-06-28 05:01:42
        走在邊緣
        雕塑(1996年2期)1996-07-13 03:19:02
        色一情一区二区三区四区| 在线不卡精品免费视频| 97成人精品视频在线| 国产av旡码专区亚洲av苍井空| 免费无码成人av在线播| 91精品国产高清久久久久| 国产丝袜美腿在线视频| 亚洲av高清在线观看一区二区 | 精品人妻va一区二区三区| 亚洲妇女无套内射精| 国产视频毛片| 偷拍一区二区三区在线观看| 人妻少妇中文字幕久久| 一本一道av无码中文字幕﹣百度| 欧美精品中文字幕亚洲专区| 好爽要高潮了在线观看| 亚洲国产精品一区二区毛片| 男人靠女人免费视频网站| 国产乱人伦AV在线麻豆A| 亚洲一区二区三区亚洲| 99国产精品久久久久久久成人热| 欲色天天网综合久久| 精品久久久久久午夜| 日韩在线一区二区三区中文字幕| 久久久久久久久毛片精品| 欧美成人形色生活片| 日韩极品视频在线观看| 黄污在线观看一区二区三区三州| 亚洲中文字幕国产综合| 免费观看一区二区| 日本一区二区三区在线视频播放| 女人高潮内射99精品| 国产精品亚洲一区二区无码| 国产精品亚洲精品日产久久久| 国产嫩草av一区二区三区| 色橹橹欧美在线观看视频高清| 亚洲欧美日韩精品中文乱码| 中文字幕亚洲一区视频| 日本肥老妇色xxxxx日本老妇| 99热免费观看| 亚洲视频观看一区二区|