亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        多尺度深度監(jiān)督的高度近視萎縮病變分割方法

        2021-08-06 03:23:00曾增峰環(huán)宇翔鄭立榮
        關(guān)鍵詞:灰度卷積深度

        曾增峰,環(huán)宇翔,鄒 卓,鄭立榮

        (復(fù)旦大學(xué)信息科學(xué)與工程學(xué)院微納系統(tǒng)中心,上海 201203)

        1 引言

        由于眼底相機(jī)的成像能夠清晰地顯示眼底組織信息,并在眼底圖像上較好地顯示出病變,而廣泛應(yīng)用于眼科醫(yī)學(xué)成像領(lǐng)域。從眼底圖像中精確地分割出高度近視萎縮病變,是現(xiàn)代科學(xué)技術(shù)輔助診斷高度近視及手術(shù)規(guī)劃的關(guān)鍵步驟。然而,可靠而精確地分割高度近視萎縮病變?cè)谘鄣讏D像分割的研究中還存在以下問(wèn)題:

        (1)不同個(gè)體的眼底圖像質(zhì)量良莠不齊,萎縮病變形狀、大小有很大差異;

        (2)萎縮病變與相鄰組織之間邊界較為模糊,難以區(qū)分。

        存在該問(wèn)題的圖像如圖1所示[1]。針對(duì)上述問(wèn)題,如何提升算法的分割精度是醫(yī)學(xué)圖像科研人員所面臨的極具挑戰(zhàn)性的任務(wù)[2]。為此,本文將提出一種基于灰度變換的眼底圖像優(yōu)化算法。

        Figure 1 Fundus image display圖1 眼底圖像展示

        目前,深度學(xué)習(xí)已經(jīng)被廣泛應(yīng)用到解決計(jì)算機(jī)視覺(jué)和醫(yī)學(xué)圖像語(yǔ)義分割等領(lǐng)域的眾多問(wèn)題。Long等[3]提出了一個(gè)基于全卷積神經(jīng)網(wǎng)絡(luò)FCN(Fully Convolutional Network)的圖像語(yǔ)義分割方法,該方法用1×1的卷積層代替全連接層,使得網(wǎng)絡(luò)可以接受任意尺寸的輸入圖像,并通過(guò)反卷積使得經(jīng)過(guò)多次卷積縮小的特征圖能夠恢復(fù)到原始圖像尺寸大小,同時(shí)更好地保留圖像空間信息。Ronneberger等[4]、Drozdzal等[5]和?i?ek等[6]對(duì)U-Net分割方法做了詳細(xì)的描述和論證,并列舉了各自方法的優(yōu)缺點(diǎn)和原理差異。通過(guò)上述3個(gè)文獻(xiàn)可以得出,現(xiàn)有U-Net結(jié)構(gòu)所應(yīng)用的方法都是使用2D卷積層和2D轉(zhuǎn)置卷積層建立下采樣層和上采樣層組合的對(duì)稱結(jié)構(gòu),可在下采樣層和上采樣層之間添加跳躍連接操作來(lái)提升分割精度,并能夠在卷積層中添加2D注釋斷層圖進(jìn)行3D醫(yī)學(xué)圖像疾病分割。Chen等[7]用膨脹卷積核代替經(jīng)典的卷積核,解決了下采樣降低特征圖大小和網(wǎng)絡(luò)參數(shù)較多的問(wèn)題。在圖像中目標(biāo)特征與背景差異明顯情況下,上述分割方法可以取得不錯(cuò)的分割效果,但當(dāng)特征差異不明顯時(shí),分割精度則有待提高。另外,深度學(xué)習(xí)算法一般要對(duì)圖像進(jìn)行預(yù)處理,預(yù)處理結(jié)果的好壞會(huì)直接影響分割精度。

        受深度學(xué)習(xí)在多學(xué)科交叉領(lǐng)域取得豐碩研究成果的啟發(fā),研究人員將其應(yīng)用到了醫(yī)學(xué)圖像處理與分析中。在實(shí)踐的過(guò)程中,針對(duì)醫(yī)學(xué)圖像中的不同任務(wù),深度學(xué)習(xí)方法均獲得了較好的結(jié)果。大多數(shù)的分割方法往往需要一定的知識(shí)和經(jīng)驗(yàn)積累,采用一些復(fù)雜的預(yù)處理操作和其他輔助方法,如K-means[8]、支持向量機(jī)[9]等,但這些方法不能充分利用圖像中豐富的語(yǔ)義信息。為了更好地輔助醫(yī)生對(duì)高度近視進(jìn)行診斷與治療,拓展深度學(xué)習(xí)和醫(yī)療技術(shù)結(jié)合的應(yīng)用前景,本文提出了一種具有多尺度深度監(jiān)督的高度近視萎縮病變分割方法,可以較好地解決上述問(wèn)題,完成高度近視萎縮病變眼底圖像的精準(zhǔn)分割。

        2 相關(guān)網(wǎng)絡(luò)結(jié)構(gòu)介紹

        2.1 V-Net

        Milletari等[10]提出了只需要少量數(shù)據(jù)就可訓(xùn)練的V-Net,并將Dice 相似系數(shù)作為損失函數(shù)。研究表明,V-Net只需少量的醫(yī)學(xué)圖像數(shù)據(jù)就能夠得到不錯(cuò)的分割精度,并且網(wǎng)絡(luò)的訓(xùn)練速度很快,因此廣泛應(yīng)用于醫(yī)學(xué)圖像分割領(lǐng)域。在醫(yī)學(xué)圖像語(yǔ)義分割的應(yīng)用中,V-Net能夠做到端對(duì)端訓(xùn)練、像素對(duì)像素的分類,即便沒(méi)有對(duì)數(shù)據(jù)集進(jìn)行預(yù)處理,也可以取得較好的分割效果,可見(jiàn)其具有很好的醫(yī)學(xué)圖像特征空間表征能力。V-Net網(wǎng)絡(luò)結(jié)構(gòu)及其特征學(xué)習(xí)過(guò)程如圖2所示。

        V-Net的網(wǎng)絡(luò)結(jié)構(gòu)由下采樣路徑和上采樣路徑組成,并且整個(gè)網(wǎng)絡(luò)都使用全0補(bǔ)齊方式的卷積使圖像的輸入尺寸和輸出尺寸一致。

        圖2左邊的下采樣路徑是十分經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò),它是由卷積塊結(jié)構(gòu)組成的,每個(gè)卷積塊結(jié)構(gòu)中均有多個(gè)卷積,類似ResNet[11]網(wǎng)絡(luò)中使用殘差結(jié)構(gòu)來(lái)解決深度學(xué)習(xí)梯度消失的問(wèn)題,卷積層中卷積核大小均為5×5,采用PReLU作為激活函數(shù),采用卷積核的步數(shù)來(lái)控制特征圖尺寸的大小。每一次卷積塊操作后特征圖的通道數(shù)量都翻倍,但是特征圖尺寸減半。

        Figure 2 V-Net圖2 V-Net

        圖2右邊的上采樣路徑的每一個(gè)卷積塊之前都是反卷積塊,除了第1個(gè)反卷積塊不改變特征圖的通道數(shù)量,其余的反卷積塊都使特征圖的通道數(shù)量減半并使特征圖尺寸加倍。將反卷積的結(jié)果與下采樣路徑中對(duì)應(yīng)大小的特征圖拼接起來(lái),組成跳躍拼接的結(jié)構(gòu)。對(duì)拼接后的特征圖進(jìn)行多次5×5的卷積運(yùn)算,其類似下采樣路徑中的卷積塊。上采樣路徑中的最后1層的卷積核大小為1×1,其將特征圖的32個(gè)通道轉(zhuǎn)化為分類個(gè)數(shù),例如本文將圖像分割分為前景和背景,所以分類個(gè)數(shù)為2[12]。

        V-Net結(jié)構(gòu)與 U-Net結(jié)構(gòu)十分類似,看起來(lái)呈V形狀,故稱之V-Net。通過(guò)對(duì)比V-Net和U-Net的網(wǎng)絡(luò)結(jié)構(gòu)可以得出,兩者主要差別為V-Net在上采樣和下采樣的每個(gè)階段都采用了ResNet的短路連接方式,其相當(dāng)于在U-Net中引入了ResBlock,可以在一定程度上解決深度網(wǎng)絡(luò)退化問(wèn)題,緩解梯度彌散問(wèn)題,即殘差連接使得信息前后向傳播更加順暢。同時(shí),現(xiàn)有研究表明V-Net性能更好,并且V-Net具有的上述結(jié)構(gòu)與優(yōu)點(diǎn),十分適合本文的眼底圖像分割任務(wù),為此本文將改進(jìn)原有V-Net的網(wǎng)絡(luò)結(jié)構(gòu)來(lái)優(yōu)化分割任務(wù)。

        2.2 特征金字塔網(wǎng)絡(luò)

        Lin等[13]提出一種特征金字塔網(wǎng)絡(luò)FPN(Feature Pyramid Networks),其大概結(jié)構(gòu)如圖3所示。

        Figure 3 Feature pyramid networks圖3 特征金字塔網(wǎng)絡(luò)

        FPN左邊的下采樣路徑是典型的深度卷積神經(jīng)網(wǎng)絡(luò),通過(guò)卷積操作使得特征圖大小保持不變或者減半。FPN右邊的上采樣路徑的每一步都采用反卷積,使得特征圖尺寸保持不變或者加倍。反卷積結(jié)果與上采樣中對(duì)應(yīng)大小一致的特征圖拼接起來(lái)。

        由于特征金字塔網(wǎng)絡(luò)能夠從不同尺度圖像提取語(yǔ)義信息,充分利用低層特征和高層特征,本文將其運(yùn)用到V-Net中組成具有多尺度融合功能的MS-V-Net(Multi-Scale V-Net),即在V-Net的網(wǎng)絡(luò)結(jié)構(gòu)上改變一些連接,在增加少量參數(shù)計(jì)算量的情況下提高網(wǎng)絡(luò)分割精度。

        2.3 深度監(jiān)督網(wǎng)絡(luò)

        Lee 等[14]提出一種深度監(jiān)督網(wǎng)絡(luò)DSN(Deeply-Supervised Nets),其大概結(jié)構(gòu)如圖4所示。

        DSN左邊的不同卷積塊引入了分類目標(biāo)函數(shù),對(duì)多個(gè)連續(xù)卷積塊學(xué)習(xí)到的信息特征提供直接監(jiān)督,不像傳統(tǒng)的深度卷積網(wǎng)絡(luò)主要依賴最后分類層計(jì)算預(yù)測(cè)誤差再進(jìn)行反向傳播來(lái)指導(dǎo)前面層的學(xué)習(xí),該網(wǎng)絡(luò)中每個(gè)卷積塊之間形成緊密監(jiān)督的形式。

        由于深度監(jiān)督網(wǎng)絡(luò)能夠?qū)η懊鎸拥膶W(xué)習(xí)起到監(jiān)督作用,從而保證整個(gè)網(wǎng)絡(luò)的學(xué)習(xí)效果,本文將其運(yùn)用到在MS-V-Net中組成具有多尺度深度監(jiān)督功能的MSS-V-Net(Multi-Scale Supervised V-Net),即在MS-V-Net的網(wǎng)絡(luò)結(jié)構(gòu)上添加多個(gè)目標(biāo)函數(shù)來(lái)提高網(wǎng)絡(luò)的分割精度。

        Figure 4 Deeply-supervised nets圖4 深度監(jiān)督網(wǎng)絡(luò)

        3 眼底圖像的優(yōu)化算法

        由于不同個(gè)體的眼底圖像質(zhì)量差異較大及因萎縮病變與相鄰組織之間邊界較為模糊等問(wèn)題,現(xiàn)有大部分眼底圖像優(yōu)化算法[15 - 17]對(duì)眼底圖像的局部采用對(duì)比度增強(qiáng)、色彩校正和直方圖均衡化等方法,盡管這些方法具有一定的作用,但結(jié)果仍不令人滿意。另外,可以使用美圖秀秀、GIMP和PhotoShop等圖像處理軟件,人工處理以達(dá)到圖像優(yōu)化的效果,但是該方法需要耗費(fèi)巨大人力,并且效率十分低下。況且不同人員對(duì)像素敏感性差異較大,修圖效果存在差別,無(wú)法保證圖像效果一致,這對(duì)于深度學(xué)習(xí)是一個(gè)巨大障礙。為解決上述問(wèn)題,本文構(gòu)建眼底圖像的優(yōu)化算法,旨在使眼底圖像組織結(jié)構(gòu)清晰、質(zhì)量風(fēng)格統(tǒng)一。

        3.1 算法原理

        為了更好地描述算法原理,本文定義中央?yún)^(qū)域和非中央?yún)^(qū)域2個(gè)概念:

        定義1圖像灰度直方圖的灰度值分布區(qū)間中間區(qū)段對(duì)應(yīng)像素坐標(biāo)點(diǎn)的區(qū)域?yàn)橹醒雲(yún)^(qū)域CA (Central Area)。

        定義2圖像灰度直方圖的灰度值分布區(qū)間非中間區(qū)段對(duì)應(yīng)像素坐標(biāo)點(diǎn)的區(qū)域?yàn)榉侵醒雲(yún)^(qū)域N-CA(Non-Central Area)。

        根據(jù)定義1和定義2,眼底圖像的優(yōu)化算法如算法1所示:

        算法1眼底圖像的優(yōu)化算法

        輸入:待優(yōu)化圖像。

        輸出:優(yōu)化后圖像。

        步驟1調(diào)整圖像局部區(qū)域的灰度:

        在輸入待優(yōu)化圖像后,首先需要分離眼底圖像的 RGB 顏色通道,并獲取它們各自的灰度直方圖。其次,將眼底圖像的眼底區(qū)域作為感興趣區(qū)域,并保證只在該區(qū)域進(jìn)行操作。最后,在每個(gè)顏色通道的灰度直方圖中提取感興趣區(qū)域,并對(duì)其中央?yún)^(qū)域的灰度值進(jìn)行灰度變換?;叶茸儞Q公式如式(1)所示:

        (1)

        其中,Ao和At分別為變換前后對(duì)應(yīng)坐標(biāo)點(diǎn)的灰度值,Qo和Qt分別為變換前后圖像的灰度極小值,Co和Ct為變換前后圖像的對(duì)比度,CEC為通道C的灰度變換權(quán)重系數(shù)。

        步驟2平衡圖像全部區(qū)域的亮度:

        經(jīng)過(guò)調(diào)整眼底圖像中央?yún)^(qū)域的灰度后,由于非中央?yún)^(qū)域的灰度值沒(méi)有經(jīng)過(guò)任何處理,導(dǎo)致中央?yún)^(qū)域和非中央?yún)^(qū)域的灰度值會(huì)存在較大差異,為此,首先用中央?yún)^(qū)域灰度值的最大值和最小值替換非中央?yún)^(qū)域灰度值的最大值和最小值。其次,對(duì)整幅圖像的所有像素點(diǎn)的灰度值疊加平衡值(Oa),該值為實(shí)驗(yàn)經(jīng)驗(yàn)值。最后,將優(yōu)化后的3個(gè)顏色通道的灰度圖像融合成彩色的眼底圖像。

        3.2 實(shí)驗(yàn)結(jié)果及分析

        本節(jié)實(shí)驗(yàn)數(shù)據(jù)由2部分構(gòu)成,即公開(kāi)數(shù)據(jù)集Grand Challenge of PALM[1]和Grand Challenge of ODIR2019[18]。本節(jié)實(shí)驗(yàn)環(huán)境為:Windows 10 64位操作系統(tǒng),CPU i5-9300H,軟件編程環(huán)境為Anaconda Spyder-Python 3.6。

        在眼底圖像的優(yōu)化算法實(shí)驗(yàn)過(guò)程中,關(guān)鍵步驟所包含的重要參數(shù)設(shè)置為:B、G、R通道對(duì)應(yīng)的Oa、CEC、Qt、Co分別為38,0.9,0,64; 90,1.0,0,200; 180,0.9,112,240。

        實(shí)驗(yàn)結(jié)果如圖5所示。從圖5中可以看出,圖5b為在經(jīng)過(guò)算法步驟1后的圖像,可以看出該圖像相對(duì)于原始圖像已經(jīng)達(dá)到一定的優(yōu)化效果,但是由于還未對(duì)非中央?yún)^(qū)域的灰度最大值和最小值進(jìn)行替換,圖像較為深紅并略顯失真。圖5c為經(jīng)過(guò)算法步驟2后的圖像,眼底圖像已經(jīng)變得組織結(jié)構(gòu)清晰、質(zhì)量風(fēng)格統(tǒng)一。2個(gè)步驟處理后的圖像相對(duì)于圖5a原始圖像呈現(xiàn)出較好的圖像質(zhì)量。

        Figure 5 Image optimization display圖5 圖像優(yōu)化展示

        圖6展示了病理性高度近視的3幅眼底圖像優(yōu)化前后對(duì)比??梢钥闯?,優(yōu)化算法明顯提高了圖像質(zhì)量的一致性,使得眼底圖像較為清晰地顯示多種生理結(jié)構(gòu),具體表現(xiàn)為眼底邊緣輪廓更為清晰,主要是清除了眼底的黑色邊緣,更清晰地顯示眼底中的血管、視神經(jīng)盤(pán)等組織結(jié)構(gòu),并且使萎縮病變與相鄰組織之間邊界的區(qū)別較為明顯。

        Figure 6 Before and after image optimization圖6 圖像優(yōu)化前后對(duì)比

        由此可以得出,該算法為優(yōu)化眼底圖像提供了一種較為新穎的方法,具有提高眼底圖像的可讀性和統(tǒng)一眼底圖像色調(diào)及清晰顯示眼底組織的作用。

        Figure 7 MS-V-Net圖7 MS-V-Net

        4 基于V-Net的MSS-V-Net

        傳統(tǒng)方法需要較為復(fù)雜的圖像預(yù)處理,如需要預(yù)先用形態(tài)學(xué)提取高度近視病變特征等操作,這些預(yù)處理導(dǎo)致網(wǎng)絡(luò)分割效果偏差較大。為此,本文研究多尺度深度監(jiān)督條件下的高度近視病變分割算法,相對(duì)于傳統(tǒng)的分割方法具有較大優(yōu)勢(shì),深度學(xué)習(xí)方法只需提供分割標(biāo)簽就能夠自動(dòng)學(xué)習(xí)并取得較好的分割結(jié)果。

        4.1 MS-V-Net

        如圖7所示,相對(duì)于V-Net網(wǎng)絡(luò)結(jié)構(gòu),可以看出MS-V-Net網(wǎng)絡(luò)在V-Net網(wǎng)絡(luò)上采樣路徑中,額外增加了一條上采樣路徑,即MS-V-Net包括2條上采樣路徑。第1條上采樣路徑為原始V-Net網(wǎng)絡(luò)的上采樣路徑;第2條上采樣路徑為多尺度上采樣路徑,其是由第1條上采樣路徑所引申出來(lái)的。在第2條上采樣路徑的反卷積之前都需要對(duì)第1條上采樣路徑的特征圖進(jìn)行1×1的卷積;再將反卷積結(jié)果與第1條上采樣路徑中對(duì)應(yīng)大小一致的特征圖拼接起來(lái),并且為了消除拼接操作可能導(dǎo)致的混疊效應(yīng),需要對(duì)拼接后的特征圖進(jìn)行卷積操作;最終經(jīng)過(guò)Softmax函數(shù)進(jìn)行像素分類,從而可以分割出萎縮病變區(qū)域。

        在測(cè)試階段,同V-Net網(wǎng)絡(luò)一樣采用最后一層的分割結(jié)果作為預(yù)測(cè)結(jié)果。

        4.2 MSS-V-Net

        由2.3節(jié)的深度監(jiān)督思想可知,卷積神經(jīng)網(wǎng)絡(luò)前面層學(xué)習(xí)效果越好越有利于后面層提取信息特征,即前面層提取特征越豐富,則越能夠保證后面層具有穩(wěn)健的學(xué)習(xí)能力。如圖8所示,在第2條上采樣路徑的每個(gè)階段引入Softmax目標(biāo)函數(shù),即每個(gè)階段都將進(jìn)行語(yǔ)義分割,3個(gè)Softmax目標(biāo)函數(shù)分別對(duì)應(yīng)3個(gè)Dice損失函數(shù),實(shí)現(xiàn)多個(gè)損失函數(shù)共同調(diào)整模型的目的,能夠提升模型的泛化能力和魯棒性。

        Figure 8 MSS-V-Net 圖8 MSS-V-Net

        具體來(lái)說(shuō),MSS-V-Net利用多尺度特征融合后每個(gè)階段信息引入分類目標(biāo)函數(shù)進(jìn)行不同尺度的語(yǔ)義分割,每個(gè)階段形成緊密監(jiān)督的形式,訓(xùn)練過(guò)程中實(shí)現(xiàn)了在不同多尺度層獨(dú)立預(yù)測(cè)的功能。

        訓(xùn)練過(guò)程包含3個(gè)Dice損失函數(shù),重要性權(quán)重分別設(shè)置為0.2,0.2和0.6,但是只監(jiān)控最后一層分類輸出的Dice數(shù)值,并只保證該數(shù)值達(dá)到最大才存儲(chǔ)權(quán)重模型。

        實(shí)驗(yàn)經(jīng)驗(yàn)表明,在測(cè)試階段最后層的結(jié)果特征提取能力最強(qiáng),前面層只是起到輔助提取特征的作用,并監(jiān)督最后一層達(dá)到較好的分割結(jié)果。因此,本文采用最后層的分割結(jié)果作為MSS-V-Net的預(yù)測(cè)結(jié)果。

        對(duì)于MSS-V-Net結(jié)構(gòu),引入深層監(jiān)督目標(biāo)函數(shù)主要有以下2個(gè)方面的作用:

        (1)深度監(jiān)督可以起到正則項(xiàng)的作用,提升網(wǎng)絡(luò)對(duì)重要信息特征的判別性。

        (2)深度監(jiān)督的作用可以理解為一定程度上解決了深度學(xué)習(xí)中的梯度消失和梯度爆炸等問(wèn)題,提高了深度學(xué)習(xí)網(wǎng)絡(luò)對(duì)重要信息特征的泛化能力。

        5 實(shí)驗(yàn)及評(píng)估標(biāo)準(zhǔn)

        5.1 實(shí)驗(yàn)平臺(tái)

        本文實(shí)驗(yàn)環(huán)境為:Windows 10 64位操作系統(tǒng),使用NVIDIA GeForce GTX 1060Ti 顯卡,核心頻率為2.30 GHz,顯存為6 GB,軟件編程環(huán)境為Python 3.6,cuDNN神經(jīng)網(wǎng)絡(luò)GPU加速庫(kù),基于TensorFlow后端的Keras深度學(xué)習(xí)框架。

        5.2 評(píng)價(jià)指標(biāo)

        定義3文獻(xiàn)[10]已經(jīng)證明,Dice損失函數(shù)能夠更好地處理前景和背景像素?cái)?shù)目之間存在嚴(yán)重不平衡的情況,所以本文采用Dice作為評(píng)價(jià)指標(biāo),其定義如式(2)所示:

        (2)

        其中,P和G分別表示預(yù)測(cè)結(jié)果和金標(biāo)準(zhǔn)標(biāo)簽;ΔP和ΔG分別表示P和G包含的閉合區(qū)域;N(·)表示區(qū)域中的像素總數(shù);Smooth=1,具有防止除0的作用。Dice(·)的值越大表示算法的分割精度越高。

        定義4盒圖是一種用作顯示一組數(shù)據(jù)分散情況資料的統(tǒng)計(jì)圖,能夠直觀顯示數(shù)據(jù)離散程度,如圖9所示。

        Figure 9 Box-plot圖9 盒圖

        其中,Q1和Q3之間的距離稱為四分位數(shù)極差(IQR),定義為:

        IQR=Q3-Q1

        (3)

        在分析數(shù)據(jù)的過(guò)程中,借助盒圖可以有效地識(shí)別數(shù)據(jù)的特性[19]:

        (1)盒圖的下端點(diǎn)是第1個(gè)四分位數(shù),上端點(diǎn)是第3個(gè)四分位數(shù),盒的長(zhǎng)度是第3個(gè)四分位數(shù)和第1個(gè)四分位數(shù)的極差I(lǐng)QR。

        (2)盒內(nèi)的線標(biāo)記了第2個(gè)四分位數(shù),即中位數(shù)。

        (3)盒外的2條線(亦稱作胡須)延伸到最小觀測(cè)值和最大觀測(cè)值。

        本文用盒圖作為評(píng)價(jià)指標(biāo)衡量測(cè)試數(shù)據(jù)集的Dice分布情況,在處理Dice觀測(cè)值時(shí),盒圖能夠繪制出可能的離群點(diǎn)[20]。

        5.3 實(shí)驗(yàn)過(guò)程

        實(shí)驗(yàn)采用隨機(jī)挑選的方法將數(shù)據(jù)集劃分為訓(xùn)練集(260幅)、驗(yàn)證集(30幅)和測(cè)試集(35幅)。在調(diào)整超參數(shù)時(shí),參考相關(guān)文獻(xiàn)及實(shí)踐經(jīng)驗(yàn),從訓(xùn)練集隨機(jī)抽取一份小規(guī)模數(shù)據(jù)集對(duì)超參數(shù)進(jìn)行大致的網(wǎng)絡(luò)探索,以節(jié)省模型參數(shù)調(diào)整的時(shí)間。本文的參數(shù)設(shè)置為:Adam優(yōu)化算法,基本學(xué)習(xí)率為0.000 1,Mini-batch為4,權(quán)重衰減因子為0.000 01,最大迭代次數(shù)為90次。

        盡管深度學(xué)習(xí)分割網(wǎng)絡(luò)降低了數(shù)據(jù)預(yù)處理難度,只需批量輸入圖像數(shù)據(jù),就能夠自動(dòng)學(xué)習(xí)萎縮病變特征,達(dá)到分割的目的。但是,由于訓(xùn)練深度學(xué)習(xí)網(wǎng)絡(luò)需要較多圖像數(shù)據(jù),并為了避免過(guò)擬合,本文采用以下3種數(shù)據(jù)增廣方法來(lái)擴(kuò)增高度近視數(shù)據(jù)集:

        (1)翻轉(zhuǎn)。本文采用水平翻轉(zhuǎn)的數(shù)據(jù)擴(kuò)增方法。

        (2)圖像亮度調(diào)整。將隨機(jī)生成的亮度值疊加到原始圖像的像素值上。

        (3)旋轉(zhuǎn)和尺度變換。在一定角度之間隨機(jī)地選擇一個(gè)角度進(jìn)行旋轉(zhuǎn)和對(duì)圖像坐標(biāo)做尺度變換。

        為了更好地說(shuō)明MSS-V-Net模型的圖像語(yǔ)義分割效果,3個(gè)模型分別在原始數(shù)據(jù)集和優(yōu)化數(shù)據(jù)集上進(jìn)行6組對(duì)比實(shí)驗(yàn)。

        在訓(xùn)練過(guò)程中,每個(gè)epoch都用驗(yàn)證集對(duì)模型進(jìn)行評(píng)估,并只保留Dice相似系數(shù)值最大的模型作為最終模型。

        5.4 實(shí)驗(yàn)結(jié)果及分析

        在本文的實(shí)驗(yàn)過(guò)程中,訓(xùn)練集和驗(yàn)證集的Dice損失函數(shù),在每個(gè)模型訓(xùn)練的初始階段存在較大的差異,但是最終模型都達(dá)到收斂狀態(tài)且收斂時(shí)Dice值相差不大,無(wú)法判斷模型好壞。為此,本實(shí)驗(yàn)主要用測(cè)試集判定模型的泛化能力。

        在測(cè)試集上,分別采用V-Net、MS-V-Net和MSS-V-Net提取原始圖像和優(yōu)化圖像的輪廓并計(jì)算Dice的盒圖作為評(píng)價(jià)指標(biāo)。

        圖10a和圖10i為原始圖像,圖10e和圖10m為標(biāo)簽,圖10b~圖10d分別為V-Net、MS-V-Net和MSS-V-Net對(duì)原始圖像1的分割結(jié)果,圖10j~圖10l分別為V-Net、MS-V-Net和MSS-V-Net對(duì)原始圖像2的分割結(jié)果,圖10f~圖10h分別為V-Net、MS-V-Net和MSS-V-Net對(duì)優(yōu)化圖像1的分割結(jié)果,圖10n~圖10p分別為V-Net、MS-V-Net和MSS-V-Net對(duì)優(yōu)化圖像2的分割結(jié)果。從圖10可以看出,MSS-V-Net和MS-V-Net的分割結(jié)果相較于V-Net的分割結(jié)果,更好地?cái)M合了高度近視萎縮病變的輪廓,存在較少的誤分割閉連通輪廓,初步驗(yàn)證了MSS-V-Net在高度近視萎縮病變分割上的可行性和有效性。

        Figure 10 Segmentation results on the data set圖10 數(shù)據(jù)集上的分割結(jié)果

        利用統(tǒng)計(jì)學(xué)評(píng)價(jià)指標(biāo)來(lái)分析模型的分割精度。由圖11可知,只有MSS-V-Net和MS-V-Net在優(yōu)化數(shù)據(jù)的情況下不存在離群點(diǎn),V-Net在原始數(shù)據(jù)集、優(yōu)化數(shù)據(jù)集上分別有1,3個(gè)離群點(diǎn),MSS-V-Net、MS-V-Net在原始數(shù)據(jù)集上均有2個(gè)離群點(diǎn)。圖11中V-Net、MS-V-Net和MSS-V-Net的Dice盒圖都呈現(xiàn)中位數(shù)變大,盒子長(zhǎng)度變短,上下間隔變小,盒外的2條線長(zhǎng)度變短的趨勢(shì)。可知,總體上MSS-V-Net 和MS-V-Net 的魯棒性均高于V-Net的,并且MSS-V-Net 也比MS-V-Net 具有更好的泛化能力和分割精度。

        Figure 11 Box-plot of Dice圖11 Dice盒圖

        值得一提的是,分割結(jié)果可能存在一些零散分割區(qū)域,這包括2種情況:(1)這些區(qū)域并不是病變區(qū)域;(2)這些區(qū)域依附在主體的分割病變區(qū)域上,大概率這些離散區(qū)域本身就是病變區(qū)域。這2種情況的零散分割區(qū)域能夠相互抵消,導(dǎo)致了即使經(jīng)過(guò)消除實(shí)驗(yàn),Dice相似系數(shù)值也相差無(wú)幾,消除實(shí)驗(yàn)的作用在該任務(wù)中顯得微乎其微,因此本文只分析原始分割結(jié)果數(shù)據(jù)作為結(jié)論。

        綜上可知,MS-V-Net網(wǎng)絡(luò)能夠更細(xì)粒度地利用上采樣過(guò)程中的低層特征和高層特征的語(yǔ)義信息,通過(guò)融合這些信息特征提升網(wǎng)絡(luò)分割精度。MSS-V-Net通過(guò)在不同融合層引入多個(gè)分類目標(biāo)函數(shù),實(shí)現(xiàn)對(duì)連續(xù)融合層學(xué)習(xí)到的信息特征提供直接監(jiān)督,不像傳統(tǒng)的深度卷積網(wǎng)絡(luò)主要依賴最后層計(jì)算預(yù)測(cè)誤差再進(jìn)行反向傳播來(lái)指導(dǎo)前面層的學(xué)習(xí)。

        6 結(jié)束語(yǔ)

        在計(jì)算機(jī)輔助高度近視的診斷與治療的系統(tǒng)中,圖像分割系統(tǒng)能夠預(yù)測(cè)到高度近視病變嚴(yán)重程度,供醫(yī)生進(jìn)一步確認(rèn)患者病情,這些工作不僅提高了診斷效率和精確度,而且還提供了病變篩查的可行措施。本文采用具有多尺度深度監(jiān)督思想的模型來(lái)分割高度近視萎縮病變眼底圖像區(qū)域。該模型不需要人工提取病變信息特征,只需利用分割網(wǎng)絡(luò)強(qiáng)大的信息表征能力進(jìn)行自動(dòng)學(xué)習(xí),即可直接獲得分割結(jié)果。針對(duì)圖像分割問(wèn)題,該模型與原始的V-Net相比,充分地利用了眼底圖像豐富的語(yǔ)義信息,更為有效地適應(yīng)病理性高度近視的復(fù)雜特征,且具有強(qiáng)大的自主學(xué)習(xí)能力、泛化能力和魯棒性等優(yōu)點(diǎn)。值得一提的是,本文提出的圖像優(yōu)化算法無(wú)需復(fù)雜的處理工作,就能夠獲得結(jié)構(gòu)清晰、風(fēng)格統(tǒng)一的眼底圖像,并使模型可以獲得相對(duì)較好的分割精度。

        更為重要的是,作者使用多尺度深度監(jiān)督方法參加Grand Challenge-KiTS19 Challenge[21]競(jìng)賽,在分割CT圖像的腎臟與腫瘤的任務(wù)中,取得了第7名[22]的比賽成績(jī)[23],雖然不是針對(duì)眼底圖像的相關(guān)疾病分割的競(jìng)賽,但是也一定程度上證明了本文方法的可行性和有效性。

        猜你喜歡
        灰度卷積深度
        采用改進(jìn)導(dǎo)重法的拓?fù)浣Y(jié)構(gòu)灰度單元過(guò)濾技術(shù)
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        基于灰度拉伸的圖像水位識(shí)別方法研究
        深度理解一元一次方程
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        深度觀察
        深度觀察
        深度觀察
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        基于最大加權(quán)投影求解的彩色圖像灰度化對(duì)比度保留算法
        蜜桃av中文字幕在线观看| 欧美日韩在线免费看| 精品福利一区| 亚洲一级天堂作爱av| 日韩女同视频在线网站| 欧美内射深喉中文字幕| 草莓视频一区二区精品| 日韩人妻有码中文字幕| 91视色国内揄拍国内精品人妻 | 亚州中文字幕乱码中文字幕| 欧美白人战黑吊| 国产成人无码一区二区在线观看| 2021av在线| 在线视频精品少白免费观看| 久久国产精品一国产精品金尊| 久久国产热这里只有精品| 综合91在线精品| 国产一级黄色片一区二区| 日本边添边摸边做边爱喷水 | 亚洲视频精品一区二区三区| 蜜桃精品人妻一区二区三区| 国产97在线 | 亚洲| 免费无码又爽又刺激高潮的视频网站 | 午夜视频免费观看一区二区 | 亚洲人精品午夜射精日韩| 国产成人麻豆精品午夜福利在线| 国产传媒在线视频| 久久国产亚洲精品一区二区三区| 国产人妻熟女高跟丝袜图片| 青青青爽国产在线视频| 中文字幕一区二区三区在线乱码| 人妻精品视频一区二区三区| 免费特级毛片| 欧美日韩国产另类在线观看| 亚洲一区二区三区成人网| 天堂中文最新版在线中文| 亚洲一区二区三区成人| 日韩av综合色区人妻| 午夜精品久久久久久久99老熟妇| 日本午夜免费福利视频| 中文字幕亚洲精品码专区|