亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于集成分類型深度神經(jīng)網(wǎng)絡(luò)的視網(wǎng)膜眼底血管圖像分割*

        2021-05-18 09:32:12王發(fā)林
        計算機工程與科學 2021年5期
        關(guān)鍵詞:方法

        蔣 蕓,王發(fā)林,張 海

        (西北師范大學計算機科學與工程學院,甘肅 蘭州 730070)

        1 引言

        眼底疾病種類繁多復雜,其中發(fā)病率和致盲率比較高的有白內(nèi)障、青光眼和糖尿病視網(wǎng)膜病變等[1]。眼底是唯一能夠直接觀察到血管的人體部位,其自身的變化,如血管寬度、角度和分支形態(tài)等,為疾病的早期診斷提供了依據(jù)[2]。眼底血管分析是目前診斷眼底疾病的主要方式,眼底血管分割則是疾病定量分析的必要步驟。近年來,隨著計算機硬件和圖像處理技術(shù)的發(fā)展,圖像分割技術(shù)也開始應(yīng)用到眼底圖像領(lǐng)域[3]。

        目前,國內(nèi)外研究人員在眼底圖像血管分割方面已有一些研究,主要分為無監(jiān)督和有監(jiān)督2大類[4]:

        (1)無監(jiān)督方法。無監(jiān)督方法事先沒有標注訓練樣本,在大多數(shù)情況下直接構(gòu)建模型。主要包括基于血管跟蹤的方法[5,6]、基于匹配濾波的方法[7,8]、基于形變模型的方法[9]、基于C均值聚類的方法[10,11]和基于驗證的自適應(yīng)局部閾值化的多閾值探測方法[12]等。文獻[5]提出了一種視網(wǎng)膜圖像血管分割和特征提取方法,這種多尺度線跟蹤方法是從一組像素開始,這個過程是從亮度選擇規(guī)則派生的,并在橫截面輪廓條件無效時終止。文獻[7]提出的基于匹配濾波的方法首次將濾波器與圖像進行卷積,提取目標對象,因為視網(wǎng)膜血管剖面的灰度符合高斯特性,所以可以通過計算圖像濾波后的最大響應(yīng)值來進行血管分割。在文獻[9]中,基于形變模型的方法思路很直觀,它用曲線來描繪出血管的邊界,邊界曲線通過能量函數(shù)的參數(shù)來定義,在邊界兩側(cè)能量變化的影響下,邊界曲線發(fā)生形變,因此使能量函數(shù)最小化就可以達到分割血管的目的。由于視網(wǎng)膜中病變部位的特征和正常血管特征極為相似,所以這些方法會導致檢測錯誤。

        (2)有監(jiān)督方法。與無監(jiān)督方法不同,有監(jiān)督方法需要標注訓練樣本以構(gòu)建最佳預測模型。有監(jiān)督方法包含:K-近鄰方法[13]、支持向量機[9,14,15]和人工神經(jīng)網(wǎng)絡(luò)[16]等。目前性能最優(yōu)的視網(wǎng)膜血管分割方法是基于深度神經(jīng)網(wǎng)絡(luò)的方法[17 - 19]。Ronneberger等人[19]提出的U_Net,首先使用卷積神經(jīng)網(wǎng)絡(luò)CNN(Convolutional Neural Network)從原始醫(yī)學圖像中提取特征;然后將這些特征上采樣到分割圖像,大大增強了深度神經(jīng)網(wǎng)絡(luò)以端到端以及像素到像素的方式分割血管的能力。圖像的上下文信息被捕獲并傳播到更高分辨率的層,因此獲得更高的分割準確率,但仍然無法解決細小血管處分割斷裂的問題,分割準確率有待提升,性能也有很大的改善空間。文獻[20]提出了一種將異構(gòu)上下文感知功能與判別性學習框架相結(jié)合的方法對視網(wǎng)膜血管進行分割。文獻[21]提出了一種整體嵌套邊緣檢測的方法對視網(wǎng)膜血管進行分割。文獻[22]提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)與最近鄰搜索的簡單組合的方法對視網(wǎng)膜血管進行分割。文獻[23]提出了一種基于U-Net的遞歸卷積神經(jīng)網(wǎng)絡(luò)RCNN(Recurrent Convolutional Neural Network)以及基于U-Net模型的遞歸殘差卷積神經(jīng)網(wǎng)絡(luò)對視網(wǎng)膜血管進行分割。

        針對現(xiàn)有分割方法中準確率不高,對病灶和噪聲敏感等問題,本文利用3個深度分類神經(jīng)網(wǎng)絡(luò)對視網(wǎng)膜眼底圖像的每個像素點進行二分類,從而獲得完整的視網(wǎng)膜血管二值圖像。在STARE、DRIVE和CHASE標準數(shù)據(jù)集上得到了較好的實驗結(jié)果。本文的主要工作如下:(1)利用3個分類性能良好的網(wǎng)絡(luò)(18層殘差網(wǎng)絡(luò)、擴寬因子為8的16層寬度殘差網(wǎng)絡(luò)和擴寬因子為10的28層寬度殘差網(wǎng)絡(luò)),提出了一種基于分類網(wǎng)絡(luò)分割眼底血管的方法。以病理醫(yī)生標注的兩類區(qū)域邊界附近以類信息為標簽的像素點為中心,構(gòu)建包含該像素點上下文信息的正方形圖像塊的訓練集。以每個正方形圖像塊包含的像素的彩色灰度值作為特征,以這些圖像塊中心像素類信息為標簽訓練以上3個網(wǎng)絡(luò),并獲得了良好的分類準確率。(2)逐像素遍歷測試圖像生成補丁即固定大小的圖像塊,將這些補丁按一定批量輸入已經(jīng)訓練好的網(wǎng)絡(luò)中,對每個像素進行分類,形成完整的分割圖像。(3)利用集成學習的思想,將不同模型輸出的分割結(jié)果進行融合,得到最終的視網(wǎng)膜血管分割圖像。

        2 卷積神經(jīng)網(wǎng)絡(luò)

        殘差模塊通過使用跳過連接解決了梯度消失和梯度爆炸的問題,且它們在圖像分類方面有著良好的效果[24]。而殘差網(wǎng)絡(luò)[25]由大量的殘差模塊組成,鑒于它們良好的分類性能,本文的工作是利用集成學習[26]的思想將殘差網(wǎng)絡(luò)進行融合,并重新構(gòu)建殘差網(wǎng)絡(luò)中的殘差模塊,從而實現(xiàn)視網(wǎng)膜血管圖像的分割。

        2.1 網(wǎng)絡(luò)結(jié)構(gòu)

        本文利用性能良好的分類神經(jīng)網(wǎng)絡(luò)對眼底圖像的每個像素點進行二分類,得到分割圖像,實現(xiàn)了一種基于分類型神經(jīng)網(wǎng)絡(luò)分割眼底血管的方法。本文提出的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,其中,Res_block代表殘差模塊,WRes_8_block表示寬度為8的殘差模塊,WRes_10_block表示寬度為10的殘差模塊。

        Figure 1 Structure of the proposed network 圖1 本文提出的網(wǎng)絡(luò)結(jié)構(gòu)

        如圖1所示,該網(wǎng)絡(luò)結(jié)構(gòu)由3個獨立的個體學習器組成:1個18層殘差網(wǎng)絡(luò)、1個16層寬度殘差網(wǎng)絡(luò)(其擴展因子為8)和1個28層寬度殘差網(wǎng)絡(luò)(其擴展因子為10),分別稱為resnet18、wrn_16_8和wrn_28_10。這3個個體學習器是3個結(jié)構(gòu)不同的神經(jīng)網(wǎng)絡(luò),它們的基本模塊都為殘差模塊。本文將殘差網(wǎng)絡(luò)進行微調(diào),通過在眼底圖像中隨機提取固定大小且以中心點像素類型為標簽的補丁圖像訓練所提出的網(wǎng)絡(luò);然后將測試圖像逐像素遍歷生成補丁,將這些補丁按一定批量輸入已經(jīng)訓練好的網(wǎng)絡(luò)中;最后對每個像素進行分類,形成完整的分割圖像。網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)如表1所示。表1顯示了每個卷積操作塊輸出特征圖的大小、卷積塊的個數(shù)和每個卷積塊內(nèi)卷積的個數(shù)。s表示卷積操作時的步長,Bn表示批次量歸一化,ReLu表示ReLu激活函數(shù),fc表示全連接操作;512-d表示輸入特征的維度為512。

        (1)resnet18。該學習器由18層殘差模塊組成,殘差模塊如圖2a所示。和圖3a相比較,本文使用的3×3卷積不僅加入了批量歸一化操作,而且激活函數(shù)的位置也做了相應(yīng)的調(diào)整,同時在跳過連接過程中加入了1×1卷積和批量歸一化。xL表示第L個殘差模塊的輸入,xL+1表示第L個殘差模塊的輸出。特征圖xL在殘差模塊內(nèi)部的傳輸過程如式(1)~式(5)所示:

        Figure 2 Structure comparison of residual modules in individual learners圖2 個體學習器中殘差模塊結(jié)構(gòu)對比圖

        (1)

        Table 1 Network parameter of individual learners表1 個體學習器網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)

        Figure 3 Convotation module圖3 卷積模塊示意圖

        (2)

        (3)

        (4)

        最后輸出為:

        (5)

        (2)wrn_16_8。該學習器是由16層且擴寬因子為8的寬度殘差模塊組成。寬度殘差模塊如圖2b所示,m為殘差模塊中卷積核的個數(shù),與圖2a和圖3a相比,寬度殘差模塊在原始殘差模塊的基礎(chǔ)上增加了一個系數(shù)k,這樣寬度殘差網(wǎng)絡(luò)中寬度殘差模塊的卷積核個數(shù)就變?yōu)閙*k,令k=8,同時加入了Dropout操作(drop_rate=0.4)和批次量歸一化操作。與resnet18學習器中殘差模塊相比,ReLU激活函數(shù)的位置發(fā)生了變動。加寬殘差模塊勢必會帶來訓練參數(shù)的激增,為了避免殘差網(wǎng)絡(luò)陷入過擬合的陷阱,引入了Dropout,淺層寬度殘差網(wǎng)絡(luò)就可以達到深層殘差網(wǎng)絡(luò)的效果。文獻[27]指出這樣微調(diào)的優(yōu)點是:引入寬度殘差模塊,拓寬卷積核的個數(shù),能夠減少網(wǎng)絡(luò)深度,增加殘差網(wǎng)絡(luò)的寬度,降低卷積層數(shù)并加快計算速度,在相同深度的殘差網(wǎng)絡(luò)中,寬度殘差網(wǎng)絡(luò)具有更好的性能。

        (3)wrn_28_10。該學習器由28層且擴寬因子為10的寬度殘差模塊組成,寬度殘差模塊如圖2b所示。wrn_28_10與wrn_16_8的殘差模塊的不同之處是擴展因子k=10,drop_rate=0.3。

        2.2 集成學習

        集成學習通過構(gòu)建并結(jié)合多個學習器來完成學習任務(wù),有時也被稱為多分類系統(tǒng)。集成學習先產(chǎn)生一組“個體學習器”,再用平均法、投票法或?qū)W習法將它們結(jié)合起來。個體學習器通常由一個現(xiàn)有的學習算法利用訓練數(shù)據(jù)產(chǎn)生,例如C4.5決策樹算法、BP神經(jīng)網(wǎng)絡(luò)算法等。

        圖4是集成學習的一般結(jié)構(gòu)。如圖4所示,所有個體學習器都是一個種類的,稱為同質(zhì)個體學習器;相反地,如果所有個體學習器不全是一個種類,則稱為異質(zhì)個體學習器。目前來說,同質(zhì)個體學習器的應(yīng)用是最廣泛的。同質(zhì)個體學習器按照個體學習器之間的依賴關(guān)系可分為2類,第一類是個體學習器之間存在強依賴關(guān)系,一組個體學習器需要串行生成;另一類是個體學習器之間不存在強依賴關(guān)系,一組個體學習器可以并行生成。本文所使用的集成學習就是由同質(zhì)個體學習器組成,并且它們之間不存在強依賴關(guān)系。

        Figure 4 Ensemble learning 圖4 集成學習示意圖

        在集成學習中,通過模型融合將每個個體學習器的結(jié)果結(jié)合起來,以便得到更優(yōu)的結(jié)果。假設(shè)集成學習包含N個同質(zhì)個體學習器{h1,h2,h3,…h(huán)N},其中hi在數(shù)據(jù)x上的輸出為hi(x)。集成學習中常用的融合策略主要有平均法、投票法和學習法,本文利用平均法對個體學習器的結(jié)果進行融合。對于數(shù)值型輸出hi(x)∈R,最常見的融合策略是使用平均法,一般有2種平均法,簡單平均法(如式(6)所示)和加權(quán)平均法(如式(7)所示)。

        (6)

        (7)

        2.3 訓練及測試

        目前醫(yī)療圖像的數(shù)據(jù)集都比較小,所以本文對使用的數(shù)據(jù)集采用數(shù)據(jù)增強的方法(包括圖像旋轉(zhuǎn)、水平翻轉(zhuǎn)和垂直翻轉(zhuǎn)等)增加數(shù)據(jù)樣本,這對提高網(wǎng)絡(luò)魯棒性、網(wǎng)絡(luò)分割準確率和防止過擬合都十分重要。

        本文在訓練階段和測試階段提取圖像補丁的方法不同,所以將訓練階段和測試階段分開表示。訓練集的構(gòu)建是非常關(guān)鍵的一個環(huán)節(jié),定義R(·)為從圖像中提取尺寸為d×d正方形圖像塊的算子。R(pxy)∈R(d)2表示以(x,y)為中心像素在原始圖像I中提取的包括像素周邊上下文像素信息的圖像塊,具體描述如下:

        R(pxy)={pr n|pr n∈I},

        x-d/2≤r≤x+d/2,d/2≤n≤y+d/2

        (8)

        其中,r,n表示像素點的位置坐標。需要指出的是,由于圖像塊的尺寸是一個像素個數(shù)為偶數(shù)的正方形塊,圖像塊R(pxy)包括了中心像素pxy和它的鄰域像素的空間位置關(guān)系,因此對該像素進行標記和分類時,該像素不是孤立存在的,而是包括了上下文像素信息的圖像塊的分類。本文的目標是對于任意輸入的圖像塊R(pxy),構(gòu)建一個函數(shù)f(·)預測中心像素pxy的類標簽c(pxy),具體函數(shù)映射定義為:

        f:R(pxy)→c(pxy)

        (9)

        其中,R(pxy)的定義如式(8)所示,包含以pxy為中心像素的上下文像素灰度信息。

        在訓練階段,從訓練圖像中隨機選取像素點,以該像素點為中心提取一個32×32(d=32)的圖像塊,每個圖像塊被標記為0或1,即將每個圖像塊都進行分類,0屬于背景,1屬于血管。而每個圖像塊的類別是根據(jù)這個像素點在真實圖像對應(yīng)位置像素點的強度決定的,若該像素點的強度為1,就將這個圖像塊標記為1;相反地,若該像素點的強度為0,就將這個圖像塊標記為0。本文共生成20萬個這樣的圖像塊,然后將這些圖像塊按一定的批量輸入到提出的網(wǎng)絡(luò)結(jié)構(gòu)中,對這些圖像塊進行預測,根據(jù)預測值和真實類標簽來更新優(yōu)化網(wǎng)絡(luò)。為了提高訓練網(wǎng)絡(luò)的有效性,同時避免無效數(shù)據(jù)對訓練時間的消耗,隨機提取的像素點都是在對應(yīng)的專家標注的眼球輪廓圖像的對應(yīng)位置強度值為1的像素點。對3個學習器分別單獨訓練及優(yōu)化,并將各自的網(wǎng)絡(luò)模型保存,以便選取最優(yōu)的網(wǎng)絡(luò)模型在測試階段調(diào)用。

        在測試階段,本文對每幅測試圖像逐像素生成32×32的圖像塊,將這些圖像塊按一定批量輸入已經(jīng)訓練好的個體學習器中,得到相應(yīng)的二分類結(jié)果,然后將分類結(jié)果對應(yīng)到像素點上,形成視網(wǎng)膜血管分割圖。和訓練階段相似,測試階段也是在專家標注的眼球輪廓圖像中強度值為1的位置提取的像素點。3個學習器生成各自的預測分割圖,然后利用平均法進行融合,得到最終的視網(wǎng)膜血管分割圖像。由于提出的方法是逐像素分類的,所以分割一幅完整的圖像所需時間較長。在DRIVE、STARE和CHASE數(shù)據(jù)集上分割一幅血管圖像分別需要2 min 47 s、3 min 52 s和7 min 19 s。

        本文基于深度學習開源包PyTorch,在配置為Intel(R) Xeon(R) E5-2620 V3 2.40 GHz CPU,NVIDIA Tesla K80 GPU 和Ubuntu64 操作系統(tǒng)的服務(wù)器上實現(xiàn)了所提方法。在訓練階段,輸入批量大小為512,補丁大小為32×32,使用隨機梯度下降法(SGD)優(yōu)化網(wǎng)絡(luò),初始學習率為0.1,利用階梯衰減法更新學習率,衰減因子為0.01,動量為0.9,權(quán)重衰減系數(shù)為0.000 5,訓練總共迭代100個周期。損失函數(shù)使用交叉熵損失函數(shù),定義如式(10)所示:

        (10)

        3 實驗結(jié)果與分析

        3.1 數(shù)據(jù)集

        本文在3個公開的視網(wǎng)膜眼底血管圖像數(shù)據(jù)集(STARE[32]、DRIVE[33]和CHASE[34])上對提出的方法進行測試。STARE數(shù)據(jù)集由20幅視網(wǎng)膜眼底血管圖像和對應(yīng)的真實標記圖像以及相應(yīng)的專家標注眼球輪廓圖像組成,利用留一法生成訓練集和測試集,然后對評估指標求和平均處理得到最終的評估結(jié)果(http://www.ces.clemson.edu/ahoover/stare/)。

        DRIVE數(shù)據(jù)集由40幅視網(wǎng)膜眼底血管圖像、對應(yīng)的真實標記圖像和相應(yīng)的專家標注眼球輪廓圖像組成,其中序號為21~40的眼底圖像組成訓練集,序號為1~20的圖像組成測試集(http://www.isi.uu.nl/Research/Databases/DRIVE/)。

        CHASE數(shù)據(jù)集由14幅左眼眼底圖像、相應(yīng)的14幅右眼眼底圖像、對應(yīng)的真實標記圖像和相應(yīng)的專家標注眼球輪廓圖像組成,前10幅對應(yīng)的左、右眼眼底圖像即20幅圖像組成訓練樣本集,后4幅對應(yīng)的左、右眼眼底圖像即8幅圖像組成測試樣本集(https://blogs.kingston.ac.uk/retinal/chasedb1/)。

        3.2 性能評估指標

        為了評估本文方法對視網(wǎng)膜眼底圖像分割的效果,本文通過生成混淆矩陣對敏感性(Sensitivity)、特異性(Specificity)、準確率(Accuracy)和F-measure等評估指標進行性能分析。各個評估指標的計算公式分別如式(11)~式(15)所示:

        敏感性(Sensitivity)表示正確分割血管像素的總數(shù)與真實血管像素的總數(shù)之比:

        (11)

        特異性(Specificity)表示正確分割背景像素的總數(shù)與真實背景像素的總數(shù)之比:

        (12)

        準確率(Accuracy)表示正確分割血管和背景像素的總數(shù)之和與整幅圖像總像素之比:

        (13)

        F-measure表示敏感性與精準率之間的比例關(guān)系:

        (14)

        (15)

        其中,TP為正確分割的血管像素的數(shù)目,TN為被正確分割的背景像素的數(shù)目,FP為被錯誤分割為血管像素的背景像素數(shù)目,FN為被錯誤分割為背景像素的血管像素數(shù)目。

        3.3 視網(wǎng)膜血管提取結(jié)果

        為了驗證以分類網(wǎng)絡(luò)進行分割以及集成學習的有效性,本文將3個個體學習器對視網(wǎng)膜血管分割結(jié)果和融合后的視網(wǎng)膜血管分割結(jié)果做了對比。表2是STARE數(shù)據(jù)集上的結(jié)果對比,表3是DRIVE數(shù)據(jù)集上的結(jié)果對比,表4是CHASE數(shù)據(jù)集上的結(jié)果對比。

        Table 2 Segmentation results of individual classifier and fusion on STARE dataset表2 STARE數(shù)據(jù)集上個體分類器與融合的分割結(jié)果

        Table 3 Segmentation results of individual classifiers and fusion on DRIVE dataset表3 DRIVE數(shù)據(jù)集上個體分類器與融合的結(jié)果

        Table 4 Segmentation results of individual classifiers and fusion on CHASE dataset表4 CHASE數(shù)據(jù)集上個體分類器與融合的結(jié)果

        表2~表4中都包含了4種結(jié)果:(1)resnet18學習器對視網(wǎng)膜血管的分割結(jié)果;(2)wrn_16_8學習器對視網(wǎng)膜血管的分割結(jié)果;(3)wrn_28_10學習器對視網(wǎng)膜血管的分割結(jié)果;(4)3個學習器分割結(jié)果融合后的視網(wǎng)膜血管的分割結(jié)果。

        Figure 5 Comparison of retinal blood vessel segmentation results on STARE,DRIVE,and CHASE datasets圖5 STARE、DRIVE和CHASE數(shù)據(jù)集上視網(wǎng)膜血管分割結(jié)果比較

        表2~表4中的3個學習器的分割準確率都達到了96%,95%,96%以上。同時,比較表2~表4的resnet18和wrn_16_8可以看出,引入寬度因子的淺層寬度殘差網(wǎng)絡(luò)和深層殘差網(wǎng)絡(luò)效果一樣,甚至更好。比較wrn_16_8和wrn_28_10發(fā)現(xiàn),在STARE和DRIVE數(shù)據(jù)集上,wrn_28_10的準確率有所提升,但在CHASE數(shù)據(jù)集上,wrn_28_10的準確率反而降低,這表明一味地增加寬度殘差網(wǎng)絡(luò)的深度和寬度在某些數(shù)據(jù)集上并不能提升性能。表2~表4融合后的分割準確率、F-measure和Specificity比單個分類器的準確率、F-measure和Specificity都高。這表明對個體學習器的融合是有效的,不同個體學習器學習的特征經(jīng)過融合互補之后,性能均有所提升。為了進一步展示該方法在視網(wǎng)膜血管分割中的優(yōu)勢,本文比較了融合前后的眼底血管分割圖像,如圖5所示。第1行對應(yīng)STARE數(shù)據(jù)集,第2行對應(yīng)DRIVE數(shù)據(jù)集,第3行對應(yīng)CHASE數(shù)據(jù)集。每一行的a列對應(yīng)原始視網(wǎng)膜圖像,b列是由專家分割的視網(wǎng)膜血管圖像,c列是由resnet18學習器分割的視網(wǎng)膜血管圖像,d列是由wrn_16_8學習器分割的視網(wǎng)膜血管圖像,e列是由wrn_28_10學習器分割的視網(wǎng)膜血管圖像,f列是將個體學習器的分割圖像融合得到的視網(wǎng)膜血管圖像。圖5c、圖5d和圖5e顯示3個個體學習器都可以很好地分割視網(wǎng)膜血管圖像,但是它們?nèi)匀话恍┰肼?并且小血管的分割相對模糊。為了對細小血管進行更準確的分割,本文將個體學習器分割結(jié)果進行了融合,圖5f表明,融合后的視網(wǎng)膜血管圖像噪聲水平更低,對細小血管的分割更加全面,而且比較清晰,有更好的魯棒性和精準性。

        對STARE數(shù)據(jù)集的ROC曲線分析得到AUC為0.986 6。對DRIVE數(shù)據(jù)集的ROC曲線分析得到AUC為0.980 1。對CHASE數(shù)據(jù)集的ROC曲線分析得到AUC為0.982 7。AUC是ROC曲線下各部分的面積,AUC值越大,當前分類方法越有可能將正樣本排在負樣本前,從而能夠更好地分類。

        3.4 不同分割方法結(jié)果的對比

        為了進一步檢測本文方法對視網(wǎng)膜血管分割的有效性,本文在STARE、DRIVE和CHASE數(shù)據(jù)集上分別將其與文獻[21-23,35-43]中的方法進行比較,通過敏感性、特異性、準確率和F-measure等幾個指標來比較視網(wǎng)膜血管分割的性能。

        表5是不同方法在STARE數(shù)據(jù)集上視網(wǎng)膜血管分割的性能指標。與文獻[21,23,36,37,42]的方法相比,雖然本文方法在特異性上沒有達到最優(yōu),但準確率、敏感度和F-measure相比這些方法都是最高的,尤其在敏感度這一指標中,本文提出的方法與文獻[13]的方法相比更具優(yōu)勢,提高了0.25%。

        表6是不同方法在DRIVE數(shù)據(jù)集上視網(wǎng)膜血管分割的性能指標。與文獻[21,22,36]的方法相比,本文方法在敏感度上沒有達到最優(yōu)效果,與文獻[20,23,35,37]的方法相比,本文方法在特異性上也沒有到達最優(yōu)效果,但均與最優(yōu)指標相差不大。在準確率和F-measure上與其他方法相比,本文方法達到了最優(yōu)。

        Table 5 Retinal blood vessel segmentation results on STARE dataset表5 STARE數(shù)據(jù)集上視網(wǎng)膜血管分割結(jié)果

        Table 6 Retinal blood vessel segmentation results on DRIVE dataset表6 DRIVE數(shù)據(jù)集上視網(wǎng)膜血管分割結(jié)果

        表7是使用不同方法在CHASE數(shù)據(jù)集上視網(wǎng)膜血管分割的性能指標。與文獻[23]的方法相比,本文方法在敏感度上沒有達到最優(yōu)效果。與文獻[23,35,39]的方法相比,本文方法在特異性上也沒有到達最優(yōu)效果,但與最優(yōu)指標相差不大。但是,在準確率和F-measure上與其他方法相比,本文方法達到了最優(yōu)效果。表5~表7均表明本文方法極大地提高了算法的F-measure,得到了能提取細小血管、分割結(jié)果完整度高、有臨床應(yīng)用價值的分割結(jié)果。

        Table 7 Retinal blood vessel segmentation results on CHASE dataset表7 CHASE數(shù)據(jù)集上視網(wǎng)膜血管分割結(jié)果

        圖6~圖8分別是在STARE、DRIVE和CHASE數(shù)據(jù)集上文獻[24]的方法和本文方法的分割圖像的對比,其中a列為原始視網(wǎng)膜圖像,b列為專家手動分割標準參考圖像,c列為文獻[23]的方法的分割結(jié)果圖像,d列為本文方法的分割結(jié)果圖像。

        Figure 6 Segmentation image comparison on STARE dataset圖6 STARE數(shù)據(jù)集上分割圖像比較

        Figure 7 Segmentation image comparison on DRIVE dataset圖7 DRIVE數(shù)據(jù)集上分割圖像比較

        Figure 8 Segmentation image comparison on CHASE dataset圖8 CHASE數(shù)據(jù)集上分割圖像比較

        由圖6可知,圖6c中細小血管出現(xiàn)了斷裂現(xiàn)象,同時周圍出現(xiàn)大量偽影,這會對臨床診斷造成嚴重的干擾。而本文方法的血管分割圖像在細小血管周圍沒有出現(xiàn)大量偽影,并且只有少量的細小血管發(fā)生斷裂現(xiàn)象。由圖7可知,文獻[23]的方法提取的血管寬度過細,許多細小血管沒有得到體現(xiàn),血管提取的完整度不高。細小血管對視網(wǎng)膜圖像有著重要的意義,丟失細小血管信息對醫(yī)療診斷十分不利。本文方法對視網(wǎng)膜血管圖像的分割更具完整性和連通性。由圖8可知,文獻[23]的方法提取的血管管狀結(jié)構(gòu)不明顯,在血管末端和分支處存在斷裂。本文方法提取的血管圖像在血管交叉處不易因其特殊的形態(tài)結(jié)構(gòu)而造成分割斷裂,末端血管也能很好地被分割出來,斷裂的細小血管少。這也進一步說明本文方法具有良好的分割性能,具有更強的魯棒性和有效性。綜上所述,本文方法可以對視網(wǎng)膜血管圖像進行有效精準的分割。

        4 結(jié)束語

        視網(wǎng)膜眼底血管的高精準分割可以成為醫(yī)生診斷眼底疾病十分重要的參考依據(jù)。本文提出了一種基于深度神經(jīng)網(wǎng)絡(luò)的逐像素分割方法。利用3個以分類型神經(jīng)網(wǎng)絡(luò)為結(jié)構(gòu)的個體學習器對視網(wǎng)膜圖像每個像素點進行分類來形成視網(wǎng)膜血管圖像,并將個體學習器的分割結(jié)果進行融合得到最終的視網(wǎng)膜血管分割圖像。由于殘差網(wǎng)絡(luò)對特征值的改變特別敏感,本文利用不同結(jié)構(gòu)的殘差模塊和寬度殘差模塊,使提取的特征更加準確。本文分別在STARE、DRIVE和CHASE數(shù)據(jù)集上對本文方法進行了驗證,準確率分別達到97.36%,95.57%和96.36%,F-measure分別達到了84.98%,82.25%和79.87%。對分割血管圖像的分析和比較結(jié)果表明,本文提出的方法比其他方法更具優(yōu)勢。

        猜你喜歡
        方法
        中醫(yī)特有的急救方法
        中老年保健(2021年9期)2021-08-24 03:52:04
        高中數(shù)學教學改革的方法
        河北畫報(2021年2期)2021-05-25 02:07:46
        化學反應(yīng)多變幻 “虛擬”方法幫大忙
        變快的方法
        兒童繪本(2020年5期)2020-04-07 17:46:30
        學習方法
        可能是方法不對
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        最有效的簡單方法
        山東青年(2016年1期)2016-02-28 14:25:23
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        賺錢方法
        无码国内精品人妻少妇蜜桃视频| 91网红福利精品区一区二| 国产人澡人澡澡澡人碰视频| 国产成人亚洲精品91专区手机| 不卡高清av手机在线观看| 视频精品熟女一区二区三区| 手机在线观看av资源| 亚洲高清乱码午夜电影网| 久久久久人妻一区精品色欧美| 久久久国产精品ⅤA麻豆| 国产一区二区三区高清视频 | 国产精品久色婷婷不卡| 久久天天躁狠狠躁夜夜avapp| 日本道精品一区二区三区| 欧美精品一级| 久久久人妻一区精品久久久 | 91久国产在线观看| 不卡视频在线观看网站| 正在播放老肥熟妇露脸| 18级成人毛片免费观看| 狠狠躁夜夜躁AV网站中文字幕| 国产av区亚洲av毛片| 国产黄色av一区二区三区| 最近免费mv在线观看动漫| 国产一区二区激情对白在线| 中文字幕亚洲精品一二三区| 四虎永久在线精品免费一区二区| 欧美大肥婆大肥bbbbb| 亚洲AV肉丝网站一区二区无码| 亚洲国产精品一区二区| 国产精品无码素人福利| 国产精品va在线播放我和闺蜜 | 国产在线av一区二区| 好吊妞无缓冲视频观看| 久久久精品人妻一区二区三区四| 91超碰在线观看免费| 白白色免费视频一区二区在线| 一区二区三区视频| a级国产乱理论片在线观看| 亚州AV成人无码久久精品| 国产高清视频在线不卡一区|