徐光柱,林文杰,陳莎,匡婉,雷幫軍*,周軍
(1.三峽大學(xué)計(jì)算機(jī)與信息學(xué)院,湖北宜昌 443002;2.湖北省水電工程智能視覺(jué)監(jiān)測(cè)重點(diǎn)實(shí)驗(yàn)室(三峽大學(xué)),湖北宜昌 443002;3.宜昌市中心人民醫(yī)院超聲科,湖北宜昌 443003)
近年來(lái),青光眼、糖尿病性視網(wǎng)膜病變等眼科疾病的發(fā)病率不斷升高,嚴(yán)重威脅著人們的健康。眼底血管分割可為眼底圖像自動(dòng)化分析提供重要的圖像配準(zhǔn)及多種眼疾判斷所需的參考信息。由于眼底血管結(jié)構(gòu)復(fù)雜、采集時(shí)易受噪聲干擾,使得手動(dòng)分割血管圖像困難且工作量大,因此,自動(dòng)化的眼底血管分割技術(shù)具有重要的研究及應(yīng)用價(jià)值。
許多學(xué)者提出了不同的眼底血管分割方法,可分為無(wú)監(jiān)督學(xué)習(xí)和有監(jiān)督學(xué)習(xí)兩大類(lèi)[1]?;跓o(wú)監(jiān)督學(xué)習(xí)的眼底血管分割方法包括基于匹配濾波、血管追蹤、形態(tài)學(xué)的方法[2-4];基于監(jiān)督學(xué)習(xí)的眼底血管分割方法通常將其視為像素級(jí)圖像分類(lèi)問(wèn)題[5-7]。無(wú)監(jiān)督學(xué)習(xí)和淺學(xué)習(xí)的監(jiān)督學(xué)習(xí)方法需要人為制定學(xué)習(xí)規(guī)則來(lái)提取血管特征,結(jié)果的好壞完全取決于規(guī)則的制定,難以應(yīng)對(duì)復(fù)雜多變的現(xiàn)實(shí)情況。
深度學(xué)習(xí)在圖像處理領(lǐng)域表現(xiàn)出了強(qiáng)大的優(yōu)勢(shì),被廣泛應(yīng)用于眼底圖像的分割任務(wù)。Fu 等[8]視眼底血管分割為邊界檢測(cè)問(wèn)題,將卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)和條件隨機(jī)場(chǎng)集成為深度網(wǎng)絡(luò)來(lái)分割眼底血管,首先利用多尺度、多層次CNN 獲得多尺度信息,再利用條件隨機(jī)場(chǎng)對(duì)像素間的長(zhǎng)距離相互作用進(jìn)行建模;Oliveira 等[9]提出了基于全卷積網(wǎng)絡(luò)(Fully Convolutional Network,F(xiàn)CN)的眼底血管分割方法,并將平穩(wěn)小波變換引入FCN 來(lái)提高分割準(zhǔn)確率;Jin 等[10]提出了一種可變形U-Net 算法,利用眼底血管的局部特征進(jìn)行眼底血管分割;徐光柱等[11]在原始U-Net 中引入密集鏈接思想;Pan 等[12]在原始U-Net 結(jié)構(gòu)中加入殘差模塊。這些方法都是為了解決U-Net 在極深條件下網(wǎng)絡(luò)性能下降的問(wèn)題。
深度學(xué)習(xí)網(wǎng)絡(luò)模型在眼底圖像自動(dòng)分割任務(wù)的結(jié)果通常優(yōu)于無(wú)監(jiān)督學(xué)習(xí)和一般的監(jiān)督學(xué)習(xí)方法。研究人員通常將深度學(xué)習(xí)方法得的灰度特征圖像直接使用硬閾值方法進(jìn)行血管分割,導(dǎo)致丟失部分微小血管和粗血管壁信息,造成血管不全與過(guò)細(xì)等問(wèn)題。Soomro 等[13]針對(duì)這個(gè)問(wèn)題使用雙閾值與形態(tài)學(xué)技術(shù)進(jìn)行血管二值化,但效果依然不佳。若將深度學(xué)習(xí)網(wǎng)絡(luò)提取的眼底血管特征視作灰度圖像,再結(jié)合基于閾值的圖像分割方法進(jìn)一步處理,則可取長(zhǎng)補(bǔ)短,既解決傳統(tǒng)方法泛化能力差、語(yǔ)義感知能力弱的問(wèn)題,又克服深度學(xué)習(xí)網(wǎng)絡(luò)輸出分割結(jié)果精度低的缺點(diǎn)。
在基于灰度圖像閾值分割算法中,脈沖耦合神經(jīng)網(wǎng)絡(luò)(Pulse Coupled Neural Network,PCNN)具有動(dòng)態(tài)閾值特性,適合圖像分割。Dona[14]將預(yù)處理后的眼底圖像輸入PCNN進(jìn)行血管分割,最后使用形態(tài)學(xué)操作進(jìn)行后續(xù)處理;徐光柱等[15]將高斯濾波、Gabor 匹配濾波、PCNN 和區(qū)域生長(zhǎng)相結(jié)合,處理視網(wǎng)膜血管分割問(wèn)題,但預(yù)處理過(guò)程沒(méi)有達(dá)到理想情況,血管與背景的對(duì)比度仍然較低,而且PCNN 作為無(wú)監(jiān)督方法提取特征的泛化性完全依賴手工設(shè)置的參數(shù)。
基于上述考慮,本文提出了改進(jìn)的U-Net 模型與自適應(yīng)閾值PCNN 模型相結(jié)合的眼底血管分割方法。首先利用改進(jìn)的U-Net 模型進(jìn)行初次血管增強(qiáng),得到眼底血管的灰度特征圖像;然后將其與原圖融合,再經(jīng)過(guò)對(duì)比度受限自適應(yīng)直方圖均衡化方法(Contrast Limited Adaptive Histogram Equalization,CLAHE)處理;接著輸入改進(jìn)的U-Net 模型進(jìn)行二次血管增強(qiáng);最后通過(guò)自適應(yīng)閾值PCNN 模型對(duì)眼底血管進(jìn)行精準(zhǔn)分割。實(shí)驗(yàn)結(jié)果表明,該方法能提取更多的微小血管,提高了血管分割準(zhǔn)確率。
U-Net 是具有對(duì)稱的類(lèi)似U 形結(jié)構(gòu)的全卷積神經(jīng)網(wǎng)絡(luò)[16],其包含捕獲上下文的收縮路徑和實(shí)現(xiàn)精確定位的擴(kuò)張路徑。因?yàn)獒t(yī)學(xué)圖像數(shù)據(jù)庫(kù)普遍存在數(shù)量少、規(guī)模小的問(wèn)題,而U-Net 有跳級(jí)連接,不需要大量數(shù)據(jù)集也有較高準(zhǔn)確率,非常適合醫(yī)學(xué)圖像分割;而且CNN 可以有效降低網(wǎng)絡(luò)的復(fù)雜度、減少訓(xùn)練參數(shù)的數(shù)量。
PCNN 是基于Eckhorn 提出的原始模型改進(jìn)得來(lái)[17]。PCNN 在圖像分割方面具有顯著的優(yōu)點(diǎn),分割后的圖像具有旋轉(zhuǎn)不變性、強(qiáng)度不變性、尺度不變性和畸變不變性等優(yōu)點(diǎn)。圖1 給出了一個(gè)PCNN 神經(jīng)元的組成框圖,PCNN 神經(jīng)元由輸入單元、連接單元、脈沖產(chǎn)生單元組成,輸入單元由連接輸入Lij和反饋輸入Fij組成,其中i、j為第ij個(gè)神經(jīng)元;連接單元主要是產(chǎn)生內(nèi)部活動(dòng)項(xiàng)Uij,其中β為連接系數(shù);脈沖產(chǎn)生單元由比較器、閾值調(diào)節(jié)器、脈沖發(fā)生器組成,當(dāng)內(nèi)部活動(dòng)項(xiàng)Uij大于動(dòng)態(tài)門(mén)限Tij時(shí),神經(jīng)元便產(chǎn)生輸出Yij。
圖1 PCNN模型Fig.1 PCNN model
為了能有效利用U-Net 模型與PCNN 模型的血管分割性能,本文提出一種基于改進(jìn)的U-Net 模型與自適應(yīng)PCNN 的眼底血管分割方法,流程如圖2 所示。第一部分是預(yù)處理,實(shí)現(xiàn)血管初級(jí)增強(qiáng)與數(shù)據(jù)增廣;第二部分是改進(jìn)的U-Net 結(jié)合CLAHE 進(jìn)行迭代式血管增強(qiáng),此時(shí)得到的灰度圖像的灰度值是該像素屬于血管的概率;第三部分是自適應(yīng)PCNN,實(shí)現(xiàn)眼底血管的分割。
圖2 本文方法流程Fig.2 Flowchart of the proposed method
醫(yī)學(xué)圖像數(shù)據(jù)集存在數(shù)量少、規(guī)模小的問(wèn)題,使得網(wǎng)絡(luò)過(guò)擬合,不利于模型的泛化性和魯棒性。本文首先通過(guò)水平翻轉(zhuǎn)、垂直翻轉(zhuǎn)和gamma 變換對(duì)數(shù)據(jù)集圖像進(jìn)行數(shù)據(jù)增廣,將圖片數(shù)量增至原來(lái)的4 倍;然后對(duì)數(shù)據(jù)集進(jìn)行灰度變換以CLAHE 來(lái)增加圖像中血管與背景的對(duì)比度,其效果如圖3所示。
圖3 對(duì)比度受限的直方圖均衡化結(jié)果對(duì)比Fig.3 Contrast limited histogram equalization results comparison
為進(jìn)一步增加數(shù)據(jù)量,本文將增強(qiáng)后的圖像進(jìn)行分塊處理。隨機(jī)從均衡化后的灰度圖像中取出若干48×48 的圖像塊,如圖4 所示。圖像塊的局部血管結(jié)構(gòu)類(lèi)似、亮度均勻,更便于提取圖像特征。
圖4 圖像分塊處理Fig.4 Image block processing
為使得提取的特征既能包含血管的整體結(jié)構(gòu),又具有微小血管的細(xì)節(jié)信息,在構(gòu)建U-Net 時(shí),本文使用了具有3 次卷積操作的下采樣或者上采樣循環(huán)單元。本文在每個(gè)卷積層后加入了批標(biāo)準(zhǔn)化(Batch Normalization,BN)層[18]和Dropout正則化層[19]。這樣做的優(yōu)勢(shì)在于:
1)引入BN 層,使得激活函數(shù)的輸入集中在均值為0、方差為1 的正態(tài)分布上,使得網(wǎng)絡(luò)能更快完成訓(xùn)練任務(wù),提高收斂速度。
2)Dropout 層讓神經(jīng)元按照一定的概率丟棄激活值,減少各層神經(jīng)元之間的相互作用,緩解由于引入BN 層而愈加嚴(yán)重的過(guò)擬合問(wèn)題,使得網(wǎng)絡(luò)不會(huì)太依賴于局部特征,增強(qiáng)網(wǎng)絡(luò)模型的泛化能力。
U-Net 上改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu)如圖5 所示,其中,下采樣循環(huán)單元由卷積層、批標(biāo)準(zhǔn)化層、激活層、正則化層、最大池化層組成,如圖6(a)所示;上采樣循環(huán)單元由上采樣層、卷積層、批標(biāo)準(zhǔn)化層、激活層、正則化層組成,如圖6(b)所示。卷積計(jì)算時(shí)使用的卷積核大小為3×3。
圖5 本文U-Net結(jié)構(gòu)Fig.5 Structure of U-Net in this paper
圖6 下采樣和上采樣分解圖Fig.6 Decomposition diagrams of subsample and upsampling
U-Net 網(wǎng)絡(luò)層參數(shù)如表1 所示。
表1 U-Net網(wǎng)絡(luò)層參數(shù)Tab.1 Network layer parameters of U-Net
模型的損失函數(shù)是二元交叉熵函數(shù),如式(1)所示:
其中:y代表標(biāo)簽,p代表U-Net 輸出結(jié)果。
為了進(jìn)一步凸顯血管區(qū)域以便于后續(xù)自適應(yīng)閾值PCNN精準(zhǔn)分割血管,本文基于改進(jìn)的U-Net 模型進(jìn)行迭代式血管增強(qiáng),增加血管與背景的對(duì)比度。
首先,U-Net 網(wǎng)絡(luò)訓(xùn)練時(shí),每一輪訓(xùn)練中選取其中90%的數(shù)據(jù)用于訓(xùn)練,將剩余10%的數(shù)據(jù)用作驗(yàn)證,分批次地將數(shù)據(jù)輸入到模型當(dāng)中以減少訓(xùn)練時(shí)長(zhǎng)。測(cè)試過(guò)程中,先在血管圖像上隔5 個(gè)像素取一個(gè)48×48 圖像塊,圖像存在重疊部分,不夠的長(zhǎng)或者寬對(duì)圖像作補(bǔ)0 處理。將圖像塊輸入訓(xùn)練好的網(wǎng)絡(luò)進(jìn)行初次增強(qiáng)血管,得到特征灰度圖像,然后將其恢復(fù)原圖大小并除去補(bǔ)0 部分,得到U-Net 初次增強(qiáng)結(jié)果,如圖7(a)所示。
將U-Net 初次增強(qiáng)的血管特征圖與原圖進(jìn)行融合,融合公式為:
其中:G1 為綠色通道G和提取的特征灰度圖Gray融合結(jié)果,G2 為融合結(jié)果。綠色通道G和提取的特征灰度圖Gray所占的比率也是通過(guò)反復(fù)實(shí)驗(yàn)得來(lái)的。將融合圖像G2 再進(jìn)行CLAHE 處理。
最后,直接將融合圖像輸入訓(xùn)練完成的改進(jìn)的U-Net 進(jìn)行血管的二次增強(qiáng)。實(shí)驗(yàn)結(jié)果發(fā)現(xiàn)這種方式能有效增強(qiáng)上一階段的特征灰度圖像、凸顯更多微小型血管信息,實(shí)驗(yàn)結(jié)果如圖7(b)所示。
圖7 U-Net兩次增強(qiáng)結(jié)果對(duì)比Fig.7 Comparison of two enhancement results of U-Net
改進(jìn)的U-Net 模型輸出的是灰度圖像,若直接使用硬閾值進(jìn)行二值化會(huì)丟失部分微小血管信息。針對(duì)這一問(wèn)題,本文充分利用自適應(yīng)閾值PCNN 動(dòng)態(tài)閾值的特性分割血管圖像,其計(jì)算公式如下:
其中:W為3×3 大小的連接權(quán)重矩陣,k、l為矩陣內(nèi)的坐標(biāo),αT為閾值衰減系數(shù),VT為脈沖調(diào)制系數(shù),n為迭代次數(shù)。
由于血管背景強(qiáng)度對(duì)比度不同或噪聲水平不同,使用全局的值初始點(diǎn)火閾值T0和連接系數(shù)β使得圖像分割效果較差。因此,本文使用了一種參數(shù)局部化方法,即首先根據(jù)特征灰度圖像的血管分布將圖像分為4 個(gè)相等大小的塊;然后對(duì)每個(gè)圖像塊使用OSTU 方法初步計(jì)算各圖塊目標(biāo)背景分割閾值θ;最后根據(jù)Raya 等[20]提出的方法計(jì)算初始點(diǎn)火閾值和連接系數(shù)。初始點(diǎn)火閾值T0和連接系數(shù)β如下得到:
其中:mo、σo分別為圖像中目標(biāo)像素點(diǎn)平均灰度值和平均方差,k1、k2分別為常數(shù)系數(shù)。通常k1∈[1,2],k2∈[0,1]。
為了驗(yàn)證本文方法的性能,選擇在DRIVE、STARE、CHASE_DB1 公開(kāi)數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)。DRIVE[21]包含40 幅圖片,圖像分辨率為565×584;STARE[22]有20 幅眼底圖像,圖像分辨率為605×700;CHASE_DB1 圖像庫(kù)[23]是從兒童心臟與健康研究中心(CHASE)提取的視網(wǎng)膜圖像的子集,圖像分辨率為999×960,共28 幅圖像,3 個(gè)數(shù)據(jù)集總共有88 張?jiān)佳鄣讏D像,每幅圖像都有2 個(gè)專家手動(dòng)標(biāo)簽。本實(shí)驗(yàn)在配置為Intel Core i7-7700K CPU @ 4.20 GHz,4200 MHz 的Windows 10 平臺(tái)下進(jìn)行。
預(yù)處理階段已將DRIVE、STARE、CHASE_DB1 數(shù)據(jù)集中原有圖像增廣到了原來(lái)的4 倍,且進(jìn)行了分塊處理。DRIVE、STARE、CHASE_DB1 數(shù)據(jù)集所用的訓(xùn)練、測(cè)試圖像塊數(shù)量如表2 所示。
表2 各階段所用圖像塊數(shù)量Tab.2 Number of image blocks used in each stage
為了判斷血管分割性能的好壞與否,需要有效的性能評(píng)價(jià)指標(biāo)。將圖像分割結(jié)果與標(biāo)簽進(jìn)行比較,圖像中每個(gè)像素點(diǎn)的分類(lèi)情況有以下四種:真陽(yáng)性(True Positive,TP)、假陽(yáng)性(False Positive,F(xiàn)P)、真陰性(True Negative,TN)以及假陰性(False Negative,F(xiàn)N)。
通過(guò)像素點(diǎn)分類(lèi)情況可以計(jì)算出準(zhǔn)確度(Accuracy,Acc)、靈敏度(Sensitivity,Se)和特異性(Specificity,Sp),這3個(gè)常用性能指標(biāo)計(jì)算方法如下所示:
ROC 曲線常用于衡量二分類(lèi)問(wèn)題準(zhǔn)確率,其是以特異性為橫坐標(biāo)、靈敏度為縱坐標(biāo)的曲線。AUC(Area Under the Curve)是ROC 曲線下面積大小,也是判斷血管分割方法性能的重要指標(biāo)。
相較于原始的U-Net 模型,本文為了削弱過(guò)擬合、提高訓(xùn)練速度,在U-Net 模型中引入了BN 與Dropout。BN 把每層神經(jīng)元輸入值的分布強(qiáng)行拉到標(biāo)準(zhǔn)正態(tài)分布,使得神經(jīng)元輸入值落在激活函數(shù)對(duì)輸入較敏感的范圍,減少訓(xùn)練時(shí)間;Dropout 不僅可以使網(wǎng)絡(luò)具有較好表達(dá)能力,更重要的是能緩解網(wǎng)絡(luò)過(guò)擬合的問(wèn)題。如圖8 所示,加入Dropout 之前,驗(yàn)證集的loss、準(zhǔn)確率與訓(xùn)練集的loss、準(zhǔn)確率有明顯差異,說(shuō)明存在過(guò)擬合問(wèn)題;加入Dropout之后,這種情況得到極大緩解。
圖8 BN與Dropout結(jié)合訓(xùn)練對(duì)比Fig.8 Training contrast between BN and Dropout layers
以DRIVE 數(shù)據(jù)集為例,訓(xùn)練輪次為25,如圖9 所示,在訓(xùn)練的初始階段,網(wǎng)絡(luò)的訓(xùn)練曲線收斂速度較快,說(shuō)明模型的學(xué)習(xí)效率較高。本文方法在15 個(gè)訓(xùn)練周期之后分割準(zhǔn)確率趨于穩(wěn)定,而原始U-Net 訓(xùn)練120 個(gè)訓(xùn)練周期之后分割準(zhǔn)確率趨于穩(wěn)定。如表3 所示,本文方法實(shí)際訓(xùn)練時(shí)間大約是原始U-Net 的1/10??梢?jiàn)本文方法大幅減少了訓(xùn)練時(shí)長(zhǎng),說(shuō)明引入BN 與Dropout 后效果明顯。
圖9 訓(xùn)練周期-準(zhǔn)確率曲線Fig.9 Training cycle-accuracy curve
表3 訓(xùn)練周期時(shí)間對(duì)比Tab.3 Training cycle time comparison
為了更完整地提取血管特征、保留微小血管信息,實(shí)驗(yàn)在DRIVE 數(shù)據(jù)集對(duì)比了將圖片分為4 個(gè)區(qū)域和9 個(gè)區(qū)域的結(jié)果。由圖10 可以看出,將圖像分成的區(qū)域太多會(huì)使得圖像更注重于局部特征,分割結(jié)果中出現(xiàn)較多的錯(cuò)誤血管點(diǎn)。
圖10 標(biāo)簽與4區(qū)域、9區(qū)域分割結(jié)果對(duì)比Fig.10 Comparison of label and segmentation results with 4 regions and 9 regions
本文通過(guò)計(jì)算靈敏度、特異性和準(zhǔn)確率等參數(shù)進(jìn)行比較,如表4 所示,4 區(qū)域的分割結(jié)果的準(zhǔn)確率與特異性高于9區(qū)域的指標(biāo),這也證明分成的區(qū)域太多會(huì)導(dǎo)致誤判,降低準(zhǔn)確率。綜合考慮,選擇將圖像分成4 個(gè)區(qū)域。
表4 4區(qū)域、9區(qū)域分割結(jié)果對(duì)比Tab.4 Segmentation results of 4 regions and 9 regions
由于預(yù)處理過(guò)程中的初級(jí)血管增強(qiáng)達(dá)不到理想效果,微小血管與背景對(duì)比度低,本文為了利于后續(xù)自適應(yīng)閾值PCNN 精準(zhǔn)分割血管,使用改進(jìn)的U-Net 進(jìn)行迭代式血管增強(qiáng)。將U-Net 初次血管增強(qiáng)的特征灰度圖與原圖進(jìn)行融合,再經(jīng)過(guò)CLAHE 處理,輸入到U-Net 進(jìn)行二次血管增強(qiáng)。CLAHE 操作通過(guò)改變灰度圖像的直方圖分布凸顯血管,有利于U-Net 網(wǎng)絡(luò)提取血管特征,得到較好的預(yù)測(cè)結(jié)果。實(shí)驗(yàn)結(jié)果證明,在3 個(gè)數(shù)據(jù)集上準(zhǔn)確率、靈敏度和特異性都有提升,U-Net 迭代式增強(qiáng)方法能有效增強(qiáng)上一階段得到的特征灰度圖像,如表5 所示。
表5 U-Net迭代增強(qiáng)結(jié)果對(duì)比Tab.5 Comparison of U-Net iterative enhancement results
原始U-Net 在進(jìn)行分割任務(wù)時(shí),通常將得到的特征灰度圖像利用硬閾值進(jìn)行分割,這會(huì)導(dǎo)致微小血管信息的丟失,從而降低了血管分割的準(zhǔn)確率。針對(duì)這一問(wèn)題,本文充分利用PCNN 軟閾值自動(dòng)捕捉的優(yōu)勢(shì),結(jié)合自適應(yīng)閾值方法,對(duì)改進(jìn)的U-Net 得到的灰度特征圖像進(jìn)行精細(xì)分割,在一定程度上提高了眼底血管分割的準(zhǔn)確率。自適應(yīng)閾值PCNN 與硬閾值方法在DRIVE 數(shù)據(jù)集上的分割結(jié)果對(duì)比如表6 所示,靈敏度有明顯提升。
表6 自適應(yīng)閾值PCNN與硬閾值分割結(jié)果對(duì)比Tab.6 Comparison of adaptive threshold PCNN and hard threshold segmentation results
為了驗(yàn)證本文方法的性能,在DRIVE、STARE、CHASE_DB1 這3 個(gè)數(shù)據(jù)集上使用靈敏度、特異性、準(zhǔn)確率、AUC 作為評(píng)價(jià)指標(biāo)。本文方法與目前主流方法相比,雖然在部分指標(biāo)上不是最佳結(jié)果,但在整體性能方面占有極大優(yōu)勢(shì),如表7~9 所示(黑色加粗?jǐn)?shù)據(jù)代表最好結(jié)果)。本文方法在數(shù)據(jù)集DRIVE 和STARE 整體評(píng)價(jià)指標(biāo)具有較大優(yōu)勢(shì):在DRIVE 數(shù)據(jù)集上,雖然只有AUC 不是最優(yōu)的,但與基準(zhǔn)方法相比,各指標(biāo)都有提升,尤其是靈敏度提升了3.75%,說(shuō)明本文方法能將大部分背景與血管像素正確分類(lèi);在STARE 數(shù)據(jù)集上,雖然靈敏度表現(xiàn)不佳,但是特異性、準(zhǔn)確度及AUC 均為最優(yōu)結(jié)果,與基準(zhǔn)方法(表中base 所示)相比,AUC 的提升達(dá)到了3.59%。在CHASE_DB1 數(shù)據(jù)集上,本方法表現(xiàn)一般,說(shuō)明CHASE_DB1 數(shù)據(jù)集血管分割難度是三者中最大的,但特異性與AUC 仍為最優(yōu)結(jié)果,都在98%以上,與基準(zhǔn)方法相比,分別提升2.32%、0.64%。AUC值越高,說(shuō)明算法分類(lèi)效果越好,數(shù)值在0.85~0.95 代表分類(lèi)效果很好,從數(shù)據(jù)結(jié)果看算法對(duì)于3 個(gè)數(shù)據(jù)集都是效果較好的分類(lèi)器,在CHASE_DB1 數(shù)據(jù)集上表現(xiàn)最佳。由以上結(jié)果可知本方法的有效性。另外,本文方法在STARE 數(shù)據(jù)集上整體分割結(jié)果要比DRIVE 和CHASE_DB1 好,主要是因?yàn)镾TARE 圖像中目標(biāo)與背景像素點(diǎn)對(duì)比度較高,亮度較均勻。
表7 在DRIVE數(shù)據(jù)集上的性能表現(xiàn)對(duì)比Tab.7 Performance comparison of different methods on DRIVE dataset
表8 在STARE數(shù)據(jù)集上的性能表現(xiàn)對(duì)比Tab.8 Performance comparison of different methods on STARE dataset
對(duì)從圖11~13 分割結(jié)果可以看出,健康圖像分割準(zhǔn)確率較高,病灶圖像和對(duì)比度不均勻的圖片分割結(jié)果稍差,出現(xiàn)大量誤判。從血管粗細(xì)來(lái)說(shuō),對(duì)于較粗血管,本文分割結(jié)果與專家手動(dòng)標(biāo)簽基本一致;對(duì)于微小血管,本文方法利用改進(jìn)的U-Net 二次迭代提取圖像灰度特征圖像,再結(jié)合自適應(yīng)閾值PCNN 對(duì)圖像中眼底血管進(jìn)行分割,得到了較多的微小血管信息。這說(shuō)明改進(jìn)U-Net 模型對(duì)于微小血管特征的提取能力較強(qiáng),且自適應(yīng)閾值PCNN 模型對(duì)于微小血管分割表現(xiàn)力較好;但同時(shí)也帶來(lái)了部分微小血管噪聲,將非血管的背景像素誤分類(lèi)為微小血管。與DRIVE 和CHASE_DB1 數(shù)據(jù)集相比,STARE 數(shù)據(jù)集中粗血管較多,微小血管分支較少,這也是STARE 數(shù)據(jù)集分割準(zhǔn)確率較高的原因。
表9 在CHASE_DB1數(shù)據(jù)集上的性能表現(xiàn)對(duì)比Tab.9 Performance comparison of different methods on CHASE_DB1 dataset
圖11 DRIVE數(shù)據(jù)庫(kù)分割結(jié)果Fig.11 Segmentation results on DRIVE dataset
圖12 STARE數(shù)據(jù)集眼底血管分割結(jié)果Fig.12 Segmentation results on STARE dataset
本文方法繼承了U-Net 適用于小樣本數(shù)據(jù)的優(yōu)點(diǎn),并結(jié)合Dropout 操作,在很大程度上削弱過(guò)擬合問(wèn)題的影響。為了進(jìn)一步驗(yàn)證本文方法的泛化性能,在DRIVE、STARE 和CHASE_DB1 數(shù)據(jù)集進(jìn)行了交叉驗(yàn)證,如表10 所示。結(jié)果表明,交叉驗(yàn)證時(shí)準(zhǔn)確率都有不同程度的下降,在其他數(shù)據(jù)集與CHASE_DB1 數(shù)據(jù)集進(jìn)行交叉驗(yàn)證時(shí),靈敏度指標(biāo)下降尤其明顯,但特異性變化不大,這變化的原因是CHASE_DB1 數(shù)據(jù)集圖片是以視盤(pán)為中心選取的眼底圖片,與其他兩個(gè)數(shù)據(jù)集特征相差較大,而且其質(zhì)量相對(duì)其他兩個(gè)數(shù)據(jù)集較差,普遍偏暗;但整體下降幅度在正常變化范圍之內(nèi),證明本文算法泛化性能較強(qiáng)。
圖13 CHASE_DB1數(shù)據(jù)集眼底血管分割結(jié)果Fig.13 Segmentation results on CHASE_DB1 dataset
表10 數(shù)據(jù)集交叉驗(yàn)證性能Tab.10 Dataset cross validation
臨床上,眼底血管的準(zhǔn)確分割對(duì)于計(jì)算機(jī)輔助診斷眼科疾病有著至關(guān)重要的作用,但由于眼底圖像亮度不均、病灶、微小血管對(duì)比度低等因素的影響,眼底血管分割方法普遍準(zhǔn)確率不高。因此,結(jié)合改進(jìn)的U-Net 模型與自適應(yīng)閾值PCNN,提出一種眼底血管分割方法。該方法先將預(yù)處理過(guò)的圖片輸入到改進(jìn)的U-Net 中進(jìn)行迭代式血管增強(qiáng):將UNet 初次血管增強(qiáng)特征圖像與原始圖像融合,再次輸入到改進(jìn)的U-Net 中得到經(jīng)過(guò)二次增強(qiáng)的特征灰度圖像。最后將二次增強(qiáng)的特征灰度圖像分為4 個(gè)不同的區(qū)域,每個(gè)區(qū)域根據(jù)不同的閾值和衰減系數(shù)使用自適應(yīng)閾值PCNN 分割血管,得到視網(wǎng)膜血管二值圖像。另外,本文把BN 與Dropout 引入U(xiǎn)-Net 模型來(lái)提高訓(xùn)練速度、削弱過(guò)擬合的影響。實(shí)驗(yàn)結(jié)果表明,該方法可以分割出更多的微小血管,在一定程度上提高了眼底血管分割的準(zhǔn)確率,具有良好的應(yīng)用前景。該方法將所有血管分塊都無(wú)差別地輸入到U-Net 中進(jìn)行訓(xùn)練,但這些分塊都是原始圖像中很小的局部特征,不同的分塊之間特征差異較大。后續(xù)可將圖像塊根據(jù)標(biāo)簽中血管所占比率進(jìn)行分類(lèi)之后再輸入到U-Net 中進(jìn)行訓(xùn)練,以此提高小血管準(zhǔn)確率。