陳莉 陳曉云
摘 要:針對(duì)眼科醫(yī)生診斷眼底圖像工作耗時(shí)且易出錯(cuò)的問(wèn)題,提出一種無(wú)監(jiān)督的眼底圖像硬性滲出物檢測(cè)方法。首先,通過(guò)形態(tài)學(xué)的背景估計(jì)方法去除血管、暗病變區(qū)域和視盤;然后,以圖像亮度通道為初始圖像,利用硬性滲出物在眼底圖像中的局部性和稀疏性,結(jié)合局部熵和魯棒主成分分析方法分解得到低秩矩陣和稀疏矩陣;最后,歸一化稀疏矩陣得到硬性滲出物區(qū)域。實(shí)驗(yàn)結(jié)果顯示,在e-ophtha EX和DIARETDB1公開(kāi)數(shù)據(jù)庫(kù)上,所提方法在病灶水平上靈敏性為91.13%和特異性為90%,在圖像水平上準(zhǔn)確率為99.03%,平均運(yùn)行時(shí)間0.5s;與支持向量機(jī)(SVM)和K-means方法相比靈敏性高且耗時(shí)少。
關(guān)鍵詞:硬性滲出物;魯棒主成分分析;局部熵;背景估計(jì);彩色眼底圖像
Abstract:To solve the time-consuming and error-prone problem in the diagnosis of fundus images by the ophthalmologists, an unsupervised automatic detection method for hard exudates in fundus images was proposed. Firstly, the blood vessels, dark lesion regions and optic disc were removed by using morphological background estimation in preprocessing phase. Then, with the image luminosity channel taken as the initial image, the low rank matrix and sparse matrix were obtained by combining local entropy and Robust Principal Components Analysis (RPCA) based on the locality and sparsity of hard exudates in fundus images. Finally, the hard exudates regions were obtained by the normalized sparse matrix. The performance of the proposed method was tested on the fundus images databases e-ophtha EX and DIARETDB1. The experimental results show that the proposed method can achieve 91.13% of sensitivity and 90% of specificity in the lesional level and 99.03% of accuracy in the image level and 0.5s of average running time. It can be seen that the proposed method has higher sensitivity and shorter running time compared with Support Vector Machine (SVM) method and K-means method.
Key words: hard exudate; Robust Principal Components Analysis (RPCA); local entropy; background estimation; color fundus image
0 引言
糖尿病視網(wǎng)膜病變(Diabetic Retinopathy, DR)是糖尿病最嚴(yán)重的并發(fā)癥之一,而硬性滲出物(Hard Exudates, HE)是糖尿病視網(wǎng)膜病變最重要的早期癥狀之一,也是糖尿病患者視力損傷或致盲的主要原因。在彩色眼底圖像中HE是一種亮的病變區(qū)域,表現(xiàn)為邊界清晰的蠟樣黃白色斑點(diǎn)或斑塊,其形狀大小各不同[1],而視盤呈近似橢圓形狀的亮黃色斑塊,微動(dòng)脈瘤呈暗紅色近似小圓點(diǎn)形狀,在顏色、結(jié)構(gòu)和紋理上HE與視盤、血管和微動(dòng)脈瘤等暗紅色病變具有相似特征,這導(dǎo)致在眼科醫(yī)生診斷大量的眼底圖像容易出錯(cuò)且耗時(shí),因此快速準(zhǔn)確地檢測(cè)HE是計(jì)算機(jī)輔助眼底圖像篩查和診斷技術(shù)一個(gè)艱難而關(guān)鍵的問(wèn)題。
1 相關(guān)研究
目前,關(guān)于眼底圖像中HE的檢測(cè)主要分為四類方法。
第一類是基于形態(tài)學(xué)的檢測(cè)方法。如Welfer等[2]將彩色眼底圖像RGB轉(zhuǎn)換為L(zhǎng)UV(CIE 1976(L*,u*,v*),CIELUV)彩色空間,在L通道上采用頂帽變換和底帽變換來(lái)增強(qiáng)圖像的對(duì)比度,再利用形態(tài)學(xué)重建完成HE提取;Walter等[3]先利用形態(tài)學(xué)閉運(yùn)算去除血管,然后根據(jù)局部閾值得到候選區(qū)域,同時(shí)去除視盤區(qū)域,最后利用形態(tài)學(xué)重建完成HE的提取。
第二類是基于閾值分割或區(qū)域生長(zhǎng)的檢測(cè)方法。如Qi等[4]將RGB眼底圖像轉(zhuǎn)為YIQ彩色圖像(National Television Standards Committee, NTSC),利用閾值和Krisch邊緣算子檢測(cè)HE;Santhi等[5]提出基于背景修正的自適應(yīng)區(qū)域生長(zhǎng)法分割HE亮病變區(qū)域。
第三類是基于無(wú)監(jiān)督的檢測(cè)方法。如曹新容等[6]提出基于鄰域約束模型的聚類檢測(cè)方法,將鄰域的最大灰度變化作為約束條件判定是否有HE;Sopharak等[7]提取彩色眼底圖像的強(qiáng)度、強(qiáng)度的標(biāo)準(zhǔn)差、色調(diào)和邊緣等4維特征進(jìn)行模糊C均值(Fuzzy C Means, FCM)聚類,并且與支持向量機(jī)(Support Vector Machine, SVM)、最近鄰(Nearest Neighbors, NN)、樸素貝葉斯分類器(Naive Bayes, NB)分別進(jìn)行對(duì)比分析,實(shí)驗(yàn)結(jié)果顯示FCM的檢測(cè)方法在靈敏性優(yōu)于有監(jiān)督的分類方法。Biyani等[8]先從HSI(Hue Saturation Intensity)彩色空間的強(qiáng)度通道采用Ostu閾值分割出視盤,接著用K-means方法分割出候選HE,提取相應(yīng)的顏色、強(qiáng)度、紋理、中值濾波和像素局部變化五個(gè)特征進(jìn)行K-means聚類得到分割結(jié)果,最后用形態(tài)學(xué)重建完成最后的HE提取。
第四類是基于有監(jiān)督的分類方法。如肖志濤等[1]先通過(guò)背景估計(jì)和Kirsch算子的邊緣信息確定HE的候選區(qū)域,提取灰度、形狀和相位一致性等特征采用SVM分類器對(duì)候選區(qū)域進(jìn)行分類得到HE的提取。Asha等[9]從LUV彩色空間中提取均值、方差、質(zhì)心和邊緣等18維特征分別采用NB、多層感知機(jī)(MultiLayer Perceptron, MLP)和極限學(xué)習(xí)機(jī)(Extreme Learning Machine, ELM)分類器進(jìn)行HE檢測(cè),實(shí)驗(yàn)結(jié)果顯示ELM優(yōu)于其他兩種分類器。Adem[10]將霍夫變換和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)相結(jié)合用于檢測(cè)HE,Parham等[11]比較多個(gè)深度學(xué)習(xí)的模型,實(shí)驗(yàn)表明ResNet(Residual Network)的深度學(xué)習(xí)模型結(jié)合SVM效果最好。Amin等[12]將RGB圖像轉(zhuǎn)成灰度圖像,利用Gabor濾波增強(qiáng)病變的對(duì)比度,通過(guò)高斯濾波、閾值和形態(tài)學(xué)重建去除視盤得到候選HE區(qū)域,提取這些區(qū)域的面積、周長(zhǎng)、環(huán)狀和直徑四個(gè)特征采用SVM、NB等多種分類器在DIARETDB1(Standard Diabetic Retinopathy Database Calibration level 1)、e-ophtha(e-ophtha Color Fundus Image Database)、DRIVE(Digital Retinal Images for Vessel Extraction)、MESSIDOR(Methods To Evaluate Segmentation And Indexing Techniques In The Field Of Retinal Ophthalmology)、HRF(High Resolution Fundus)等多個(gè)公開(kāi)數(shù)據(jù)庫(kù)上進(jìn)行分類。
盡管已有的檢測(cè)方法能較好地檢測(cè)眼底圖像中的HE,但以上所述的形態(tài)學(xué)或閾值等檢測(cè)方法針對(duì)不同的數(shù)據(jù)庫(kù)需要調(diào)整閾值參數(shù),不具有普遍性;有監(jiān)督的檢測(cè)方法(如SVM、NB、ELM等)需專家手動(dòng)標(biāo)記HE病變區(qū)域?yàn)闃?biāo)準(zhǔn),這給臨床檢測(cè)帶來(lái)很大的困難;CNN檢測(cè)方法雖不需要選取特征且檢測(cè)效果好,但需要大量的訓(xùn)練樣本且耗時(shí),因此迫切需要一個(gè)快速、有效的檢測(cè)方法來(lái)實(shí)現(xiàn)眼底圖像HE的自動(dòng)分割。
魯棒主成分分析(Robust Principal Components Analysis, RPCA)方法,又稱低秩矩陣恢復(fù),最早是由Wright等[13]文獻(xiàn)13的作者不是Wright,二者不一致,需調(diào)整提出,其思想是當(dāng)矩陣的某些元素被嚴(yán)重破壞后,能自動(dòng)識(shí)別被破壞的元素并恢復(fù)其原始矩陣。將含被破壞的數(shù)據(jù)矩陣D分解為兩個(gè)矩陣相加的形式,即D=L+S,其中:L是低秩矩陣,逼近原始數(shù)據(jù)矩陣;S是稀疏矩陣,即含噪聲的數(shù)據(jù)矩陣。近年來(lái),基于矩陣低秩稀疏分解的魯棒主成分分析方法被成功應(yīng)用于圖像人臉識(shí)別[14]、顯著性目標(biāo)檢測(cè)[15-17]等計(jì)算機(jī)視覺(jué)領(lǐng)域。從認(rèn)知科學(xué)的角度看,圖像信息可以分為背景部分和顯著性目標(biāo)。背景部分代表冗余信息,而顯著性目標(biāo)則代表圖像中人們視覺(jué)注意的部分[15]。從子空間分析角度看,圖像的背景具有較強(qiáng)的相關(guān)性,近似位于同一低秩的子空間;而顯著性目標(biāo)與背景差異性較大,偏離該低秩空間,是稀疏分布的。Xiao等[14]將RPCA方法用于人臉識(shí)別,將人臉圖像分解成低秩矩陣和稀疏矩陣,其中稀疏矩陣代表人臉的局部特征,如眼鏡、圍巾等面部顯著性特征,低秩矩陣則代表去除面部特征的人臉圖像。Candes等[17]將RPCA方法用于視頻監(jiān)控的背景建模,穩(wěn)定的背景部分表示低秩部分,運(yùn)動(dòng)的顯著性目標(biāo)代表視頻的前景,即稀疏部分。不論是動(dòng)態(tài)的視頻還是靜態(tài)的圖像,RPCA都能較好地將圖像分解成低秩的背景和稀疏的顯著性目標(biāo)兩個(gè)部分。
考慮彩色眼底圖像的背景在顏色、強(qiáng)度、亮度等像素特征上具有很強(qiáng)的相似性,而HE病變區(qū)域與背景差異較大,是局部且稀疏分布的,因此本文將RPCA的思想應(yīng)用于HE病變區(qū)域檢測(cè),即將彩色眼底圖像通過(guò)RPCA方法分解得到的低秩矩陣代表圖像背景,稀疏矩陣表示為HE病變區(qū)域,提出一種無(wú)監(jiān)督的彩色眼底圖像硬性滲出物檢測(cè)方法,利用形態(tài)學(xué)的背景估計(jì)方法去除血管、暗病變區(qū)域和視盤等偽目標(biāo),以圖像亮度通道Y為初始圖像,利用HE病變?cè)谘鄣讏D像中的局部性和稀疏性,結(jié)合局部熵和RPCA方法得到HE病變區(qū)域。該方法不需要專家手動(dòng)標(biāo)記HE為標(biāo)準(zhǔn),不需要選取多個(gè)特征且耗時(shí)少,給眼科臨床篩查和診斷帶來(lái)很大的便利。
2 本文方法
本文方法流程如圖1所示。首先采用形態(tài)學(xué)的背景估計(jì)方法去除血管及暗病變區(qū)域等偽目標(biāo),并在亮度通道上通過(guò)形態(tài)學(xué)重建和自適應(yīng)閾值方法分割視盤,然后提取預(yù)處理后的亮度通道作為初始圖像,結(jié)合局部熵和RPCA低秩稀疏分解得到HE病變區(qū)域二值圖。
2.1 預(yù)處理
如圖2所示,眼底圖像中血管、視盤及暗病變區(qū)域(包含微動(dòng)脈瘤和出血點(diǎn))與HE區(qū)域有相似的顏色、亮度和紋理結(jié)構(gòu)特征,為了去除這些偽目標(biāo),本文采用背景估計(jì)的方法[1]增強(qiáng)HE區(qū)域和背景像素(包含血管、暗病變區(qū)域等)的對(duì)比度。
先對(duì)灰度圖像Igray (如圖3(b))進(jìn)行大小為原始圖像大小的1/30的中值濾波處理,構(gòu)建一個(gè)灰度圖像和中值濾波圖像Im(如圖3(c))求最大值的掩膜圖像Imask(如圖3(d));在此基礎(chǔ)上以中值濾波圖像為標(biāo)記圖像,利用形態(tài)學(xué)重建提取眼底圖像的背景Ibj(如圖3(e));將灰度圖像與估計(jì)的背景圖像相減,得到差值矩陣I(如圖3(f)),差值小于零的像素即對(duì)應(yīng)灰度圖像中的暗區(qū)域(包含血管、其他暗紅色病變區(qū)域)。將這些像素置為零,即去除包含血管和暗紅色病變區(qū)域等偽目標(biāo)。
去除血管及暗病變區(qū)域等偽目標(biāo)后仍然存在與HE病變區(qū)域相似的亮區(qū)域(視盤、鄰近血管的神經(jīng)纖維區(qū)域等),因此去除視盤是有必要的。由于視盤在眼底圖像中呈亮黃色近橢圓形狀,采用形態(tài)學(xué)重建和自適應(yīng)閾值的方法分割視盤。先將RGB彩色眼底圖像轉(zhuǎn)為YCbCr(Y′CBCR)彩色眼底圖像,在亮度通道Y(如圖3(g))上進(jìn)行CLAHE(Contrast Limited Adaptive Histogram Equalization)增強(qiáng)(如圖3(h))后作為掩膜圖像,采用大小25×25的中值濾波處理(如圖3(i))后作為標(biāo)記圖像,將形態(tài)學(xué)重建(如圖3(j))后的圖像灰度值范圍進(jìn)行調(diào)整,取其最大面積的連通區(qū)域進(jìn)行膨脹處理(采用圓盤結(jié)構(gòu)元素(′disk′,5))為視盤分割結(jié)果(如圖3(k)),經(jīng)過(guò)多次實(shí)驗(yàn),圖像灰度值范圍由[0,1]調(diào)整為[0.55,0.65]分割效果最好,最后將視盤的像素置為零作為預(yù)處理后圖像(如圖3(l))。
2.2 局部熵
信息熵是圖像信息論中用來(lái)度量信息量的一個(gè)概念,局部熵反映圖像某個(gè)區(qū)域所含信息量的多少。在圖像中某個(gè)區(qū)域含有的信息量越多,則圖像對(duì)比度越好,更好地突出細(xì)節(jié)部分;反之,圖像灰度變化不大,對(duì)比度越差[18]。對(duì)于圖像的背景,相當(dāng)于無(wú)序的噪聲,其局部熵值較均勻且具有較大熵值;對(duì)于HE病變區(qū)域,灰度起伏較大,信息量較大,其熵值較小。因此局部熵比顏色灰度值更能很好地反映HE病變區(qū)域的局部性和顯著性。本文定義局部熵[19]為:
以像素點(diǎn)(i, j)為中心的n×n區(qū)域進(jìn)行熵計(jì)算,得到局部熵特征。其中pi, j為圖像中像素點(diǎn)(i, j)灰度占局部總灰度的概率。
由于人的肉眼對(duì)YCbCr彩色空間中亮度通道Y更敏感,因此本文在預(yù)處理后的亮度通道上以像素點(diǎn)(i, j)為中心的9×9區(qū)域提取局部熵,能更好地反映HE病變區(qū)域的局部性。
2.3 結(jié)合局部熵和RPCA的檢測(cè)方法
利用HE病變區(qū)域在眼底圖像中的局部性和稀疏性,參照傳統(tǒng)的RPCA[13]方法,結(jié)合局部熵和RPCA低秩稀疏分解方法可表示為下面凸優(yōu)化的求解模型:
其中根據(jù)式(1)計(jì)算眼底圖的局部熵H,A代表低秩矩陣,S代表稀疏矩陣,λ是正則化參數(shù),用于平衡低秩項(xiàng)和稀疏項(xiàng)的效果。rank(·)是秩函數(shù),表示非零奇異值的個(gè)數(shù),l0范數(shù)‖·‖0表示非零元素的個(gè)數(shù),約束稀疏項(xiàng)。由于式(2)是NP難題,可將范數(shù)優(yōu)化問(wèn)題松弛為l1范數(shù)優(yōu)化問(wèn)題,rank函數(shù)松弛為核范數(shù),所以上述模型變?yōu)椋?/p>
其中核范數(shù)‖·‖(矩陣所有奇異值之和)和l1范數(shù)(矩陣所有元素絕對(duì)值之和)分別是秩函數(shù)和l0范數(shù)的最小凸近似。式(3)求解問(wèn)題可轉(zhuǎn)變?yōu)閷?duì)應(yīng)的增廣拉格朗日函數(shù):
其中Y是拉格朗日乘子, μ>0是懲罰參數(shù),〈·〉表示內(nèi)積運(yùn)算,‖·‖F(xiàn)為F范數(shù)。采用不精確拉格朗日乘子法(Inexact Augmented Lagrange Multiplier, IALM)求解式(4)過(guò)程中,當(dāng)Y=Yt, μ=μt時(shí),使用交替式方法求解塊優(yōu)化問(wèn)題minA,S L(A,S,Yt, μt)。固定其余變量,交替更新其中一個(gè)變量,直到滿足收斂條件為止。具體更新過(guò)程如下。
其中ρ>1為常數(shù),ε>0為較小正數(shù),參數(shù)μ初始值0.1, ρ=1.5, μk隨著迭代的更新增長(zhǎng)速度越快,收斂速度越快。在以上更新過(guò)程中,更新A時(shí),矩陣H-St+Yt/μt需進(jìn)行奇異值分解(Singular Value Decomposition, SVD)。算法最后得到背景矩陣A和稀疏矩陣S,然后根據(jù)得到的矩陣S進(jìn)行歸一化得到最后的HE病變區(qū)域圖像。
3 實(shí)驗(yàn)結(jié)果與分析
3.1 實(shí)驗(yàn)數(shù)據(jù)及評(píng)價(jià)指標(biāo)
目前給出HE病變區(qū)域?qū)<覙?biāo)記的公開(kāi)數(shù)據(jù)庫(kù)有e-ophtha EX和DIARETDB1。DIARETDB1數(shù)據(jù)庫(kù)含有89幅分辨率為1500×1150的彩色眼底圖像和不同病變的標(biāo)記,其中含有HE的圖像有48幅,這些圖像同時(shí)存在出血點(diǎn)、軟性滲出物和微動(dòng)脈瘤等病變。e-ophtha EX數(shù)據(jù)庫(kù)是專門用于糖尿病視網(wǎng)膜病變研究的彩色眼底圖像數(shù)據(jù)庫(kù),是由法國(guó)國(guó)家科研署資助的遠(yuǎn)程DR篩查項(xiàng)目OPHDIAT(OPHthalmology DIAbetes Telemedicine)[20]中建立的e-ophtha數(shù)據(jù)庫(kù)中的一個(gè)子庫(kù),HE病變圖像的標(biāo)記是由TeleOphta(TeleOphtalmology)[21]項(xiàng)目中ADCIS(ADvanced Concepts in Imaging Software)研發(fā)的標(biāo)注軟件結(jié)合眼科專家的修改意見(jiàn)共同完成的。該庫(kù)包含103幅彩色眼底圖像(包含四種不同尺寸:1440pixels×960pixels、1504pixels×1000pixels、2048pixels×1360pixels、2544pixels×1696pixels),其中有47幅含HE病變圖像和56幅正常圖像。與其他公開(kāi)的彩色眼底圖像數(shù)據(jù)庫(kù)如HEI-MED(Hamilton Eye Institute Macular Edema Dataset)、MESSIDOR、DIARETDB0(standard DIAbetic RETinopathy DataBase calibration Level 0)、DIARETDB1、STARE(STructured Analysis of the REtina)等數(shù)據(jù)庫(kù)相比,e-ophtha EX數(shù)據(jù)庫(kù)的HE病變標(biāo)記更精準(zhǔn),可作為HE檢測(cè)結(jié)果的病灶水平評(píng)價(jià)標(biāo)準(zhǔn)[22]。
對(duì)于HE檢測(cè)方法性能的評(píng)價(jià)標(biāo)準(zhǔn)主要有基于病灶水平和基于圖像水平?;诓≡钏降脑u(píng)價(jià)標(biāo)準(zhǔn):每幅眼底圖像若檢測(cè)出的病變區(qū)域(像素)與專家標(biāo)記的病變區(qū)域(像素)一致則為真陽(yáng)性(True Positive, TP),否則為假陰性(False Negative, FN);同理檢測(cè)出的非病變區(qū)域(像素)與專家標(biāo)記的非病變區(qū)域(像素)一致為真陰性(True Negative, TN),否則為假陽(yáng)性(False Positive, FP)。本文選用區(qū)分度較高的靈敏度和特異性為主要評(píng)價(jià)標(biāo)準(zhǔn)本文選用區(qū)分度較高的靈敏性和特異性作為基于病灶水平的主要評(píng)價(jià)標(biāo)準(zhǔn)此句與下句描述沖突,是否可刪除此句,請(qǐng)明確;基于圖像水平的評(píng)價(jià)標(biāo)準(zhǔn)是以圖像中含有HE病變區(qū)域(像素),則為異常圖像(TP),否則為正常圖像(TN)。本文則選用準(zhǔn)確度、靈敏性和特異性為主要評(píng)價(jià)標(biāo)準(zhǔn)。本文則選用準(zhǔn)確度、靈敏性和特異性作為基于圖像水平的主要評(píng)價(jià)標(biāo)準(zhǔn)。在此基礎(chǔ)上,給出靈敏性、特異性等三個(gè)評(píng)價(jià)標(biāo)準(zhǔn):
3.2.1 不同顏色通道檢測(cè)結(jié)果分析
YCbCr彩色空間中Y是指亮度通道,Cb指藍(lán)色色度通道,而Cr指紅色色度通道。人的肉眼對(duì)Y通道更敏感,因此本文在YCbCr的亮度通道(Luminance, Y)、RGB的綠色通道(Green, G)、HSI的強(qiáng)度通道(Intensity, I)和HSV(Hue Saturation Value)的亮度通道(Value, V)上提取局部熵分別檢測(cè),從表1所示的實(shí)驗(yàn)結(jié)果可以看出在病灶水平上YCbCr亮度通道的檢測(cè)結(jié)果靈敏性和特異性比其他顏色通道好。
3.2.2 局部熵檢測(cè)結(jié)果分析
由于局部熵比顏色灰度能更很好地反映HE病變區(qū)域的局部性和顯著性,本文分別提取亮度灰度(如圖4(b))和局部熵(如圖4(c))檢測(cè)HE病變區(qū)域?qū)嶒?yàn),實(shí)驗(yàn)結(jié)果從圖4(e)和(f)可以看出提取局部熵檢測(cè)結(jié)果比亮度灰度檢測(cè)結(jié)果更接近專家標(biāo)記。
3.2.3 參數(shù)選擇分析
RPCA檢測(cè)方法中平衡參數(shù)λ用于平衡低秩矩陣和稀疏矩陣,λ取值大小影響最后HE的檢測(cè)結(jié)果好壞。本文取λ=[0.1 0.2 0.4 0.8 0.01 0.02 0.04 0.08 0.001 0.002 0.004 0.008 0.0001 0.0002 0.0004 0.0008]共16個(gè)值分別進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果如圖5所示,λ≥0.001時(shí)對(duì)稀疏矩陣的影響較小,靈敏性和特異性普遍較高,當(dāng)λ=0.004時(shí)靈敏性最高,特異性較高,視為最優(yōu)。
3.2.4 對(duì)比分析
本文在病灶水平的評(píng)價(jià)標(biāo)準(zhǔn)上驗(yàn)證本文方法的有效性且耗時(shí)少,分別采用SVM、K-means和本文方法進(jìn)行實(shí)驗(yàn)。
SVM實(shí)驗(yàn) 由于一幅眼底圖像大小為1440×960,HE病變區(qū)域像素樣本數(shù)約占整幅眼底圖像3%,為避免樣本失衡,采用交叉驗(yàn)證法選取e-ophtha EX數(shù)據(jù)庫(kù)中像素樣本作為訓(xùn)練集,正負(fù)比例1∶1,e-ophtha EX數(shù)據(jù)庫(kù)47幅含病變圖像作為測(cè)試集。實(shí)驗(yàn)結(jié)果如表2所示,平均靈敏性為77.92%,特異性為96.59%,訓(xùn)練時(shí)間為128502.15s,每幅圖像平均測(cè)試時(shí)間為1.79s。
K-means實(shí)驗(yàn) 采用SVM相同的測(cè)試集數(shù)據(jù)。為避免隨機(jī)性,以每幅圖像為測(cè)試樣本分別迭代30次,平均靈敏性和特異性為53.41%和53.55%,每幅圖像平均耗時(shí)41.43s。
本文方法在相同的測(cè)試集數(shù)據(jù)上的檢測(cè)結(jié)果為靈敏性91.13%和特異性90.00%,從表2看出本文方法的靈敏性均高于SVM和K-means方法的檢測(cè)結(jié)果,特異性低于SVM方法的檢測(cè)結(jié)果,原因是視盤等亮區(qū)域去除不精確造成的。每幅圖像平均運(yùn)行時(shí)間0.5s,遠(yuǎn)少于以上兩種方法的運(yùn)行時(shí)間。
圖6為選取兩個(gè)數(shù)據(jù)庫(kù)上眼底圖像采用SVM、K-means方法和本文方法的檢測(cè)結(jié)果與專家標(biāo)記比對(duì)。圖6第三列為本文方法的檢測(cè)結(jié)果,圖6第四、五列為SVM、K-means方法的檢測(cè)結(jié)果,圖6第三、四列為SVM、K-means方法的檢測(cè)結(jié)果,圖6第五列為本文方法的檢測(cè)結(jié)果,可以看出本文方法均能檢測(cè)出HE病變區(qū)域,且本文方法檢測(cè)HE病變區(qū)域比SVM、K-means方法的檢測(cè)結(jié)果更接近專家標(biāo)記,造成假陽(yáng)性高的亮區(qū)域較少。
為了進(jìn)一步驗(yàn)證本文方法的有效性,將本文方法與現(xiàn)有方法進(jìn)行比較,如表3所示。文獻(xiàn)[4]、文獻(xiàn)[6]分別用閾值法、聚類方法,文獻(xiàn)[1]、[11]、分別用SVM和CNN方法。根據(jù)圖像水平的評(píng)價(jià)標(biāo)準(zhǔn),圖像中只要含有HE病變區(qū)域(像素)就判別為異常圖像,否則為正常圖像。從表3可以看出,本文方法在DIARETDB1數(shù)據(jù)庫(kù)的檢測(cè)結(jié)果準(zhǔn)確度為100%,靈敏性為100%,特異性100%,在e-ophtha EX數(shù)據(jù)庫(kù)上的檢測(cè)結(jié)果準(zhǔn)確度為99.03%,靈敏性為100%,特異性98.21%,與文獻(xiàn)[1]相比,本文方法具有較高的準(zhǔn)確度。需要說(shuō)明的是,僅文獻(xiàn)[1]給出在圖像水平上的檢測(cè)結(jié)果,其余文獻(xiàn)均未提到。在病灶水平上本文方法在DIARETDB1數(shù)據(jù)庫(kù)的檢測(cè)結(jié)果靈敏性低于其他方法,因?yàn)閑-ophtha EX數(shù)據(jù)庫(kù)含有精準(zhǔn)的專家標(biāo)記圖(如圖6(b)第一、二行),而DIARETDB1數(shù)據(jù)庫(kù)含有的專家標(biāo)記圖(如圖6(b)第三、四行)較不精準(zhǔn),表3所示文獻(xiàn)[1]、[6]中有眼科專業(yè)醫(yī)生對(duì)DIARETDB1數(shù)據(jù)庫(kù)進(jìn)行精準(zhǔn)標(biāo)記。雖然本文方法在DIARETDB1數(shù)據(jù)庫(kù)的檢測(cè)結(jié)果靈敏性不高,但是從圖6(e)第三、四行中可看出本文方法的檢測(cè)結(jié)果比專家標(biāo)記更接近真實(shí)的HE病變區(qū)域,在e-ophtha EX數(shù)據(jù)庫(kù)上的檢測(cè)結(jié)果顯示靈敏性達(dá)到91.13%,高于其他方法,特異性比其他方法略優(yōu),特異性偏低的原因是視盤等亮區(qū)域去除不精確造成的。
3.2.5 本文方法不足
本文方法檢測(cè)結(jié)果中在病灶水平上特異性較低的原因是預(yù)處理過(guò)程中不能精確去除亮區(qū)域(如視盤、鄰近血管的神經(jīng)纖維區(qū)域等),這些偽目標(biāo)與HE病變區(qū)域有相似的形狀和邊緣特征,在提取局部熵特征中兩者的熵值相近,因此在RPCA低秩稀疏分解過(guò)程中這些亮區(qū)域被誤判為HE病變區(qū)域,造成假陽(yáng)性(FP)太高,特異性不高。如圖7顯示,整幅圖像光照不均,圖中視盤位于眼球邊緣且亮度較暗,鄰近血管的神經(jīng)纖維和視盤具有與HE病變區(qū)域相似的亮度特征,去除這些偽目標(biāo)不精確導(dǎo)致檢測(cè)結(jié)果出現(xiàn)假陽(yáng)性偏高的現(xiàn)象。
4 結(jié)語(yǔ)
本文提出一種無(wú)監(jiān)督的HE自動(dòng)檢測(cè)方法,運(yùn)用形態(tài)學(xué)重建的背景估計(jì)方法去除血管、暗病變區(qū)域和視盤,在亮度通道上根據(jù)HE病變區(qū)域的局部性和稀疏性,結(jié)合局部熵和RPCA方法得到HE病變區(qū)域。該方法不需要專家手動(dòng)標(biāo)記為標(biāo)準(zhǔn),自動(dòng)檢測(cè)HE病變區(qū)域,實(shí)驗(yàn)結(jié)果表明該方法具有較高的靈敏度和特異性,且快速有效,給眼科臨床篩查和診斷帶來(lái)很大的便利,具有較好的臨床可行性;但本文采用RPCA方法未能較好地處理視盤去除不精確或鄰近血管的神經(jīng)纖維區(qū)域造成的假陽(yáng)性偏高的問(wèn)題,在后續(xù)的研究中可考慮加入噪聲項(xiàng)或增加稀疏權(quán)重等優(yōu)化RPCA的辦法來(lái)降低假陽(yáng)性。
參考文獻(xiàn) (References)
[1] 肖志濤,王雯,耿磊,等.基于背景估計(jì)和SVM分類器的眼底圖像硬性滲出物檢測(cè)方法[J].中國(guó)生物醫(yī)學(xué)工程學(xué)報(bào),2015,34(6):720-728.(XIAO Z T, WANG W, GENG L, et al. Hard exudates detection method based on background-estimation and SVM classifier[J]. Chinese Journal of Biomedical Engineering, 2015, 34(6): 720-728.)
[2] WELFER D, SCHARCANSKI J, MARINHO D R. A coarse-to-fine strategy for automatically detecting exudates in color eye fundus images[J]. Computerized Medical Imaging Graphics, 2010, 34(3): 228-235.
[3] WALTER T, KLEIN J C, MASSIN P, et al. A contribution of image processing to the diagnosis of diabetic retinopathy detection of exudates in color fundus images of the human retina[J]. IEEE Transactions on Medical Imaging, 2002, 21(10): 1236-1243.
[4] QI F C, LI G, ZHENG S B. Automatic exudate detection in color fundus images[J]. Digital TV and Wireless Multimedia Communication, 2017, 685: 155-165.
[5] SANTHI D, MANIMEGALAI D, PARVATHI S, et al. Segmentation and classification of bright lesions to diagnose diabetic retinopathy in retinal images[J]. Biomedizinische Technik (BIOMED TECH), 2016, 61(4): 443-453.
[6] 曹新容,林嘉雯,薛嵐燕,等.鄰域約束模型的眼底圖像硬性滲出聚類檢測(cè)方法[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2018,30(11):2093-2100.(CAO X R, LIN J W, XUE L Y, et al. Clustering detection method of hard exudates in fundus image based on neighborhood constraint model[J]. Journal of Computer-Aided Design and Computer Graphics, 2018, 30(11): 2093-2100.)
[7] SOPHARAK A, UYYANONVARA B, BARMAN S, et al. Comparative analysis of automatic exudate detection algorithms [C]// WCE 2010: Proceedings of the 2010 World Congress on Engineering. London: [s.n.], 2010: 738-741.
[8] BIYANI R S, PATRE B M. A clustering approach for exudates detection in screening of diabetic retinopathy[C]// Proceedings of the 2016 International Conference on Signal and Information Processing. Washington, DC: IEEE Computer Society, 2016: 1-5.
[9] ASHA P R, KARPAGAVALLI S. Diabetic retinal exudates detection using machine learning techniques[C]// Proceedings of the 2015 International Conference on Advanced Computing and Communication System. Piscataway, NJ: IEEE, 2015: 1-5.
[10] ADEM K. Exudate detection for diabetic retinopathy with circular Hough transformation and convolutional neural networks[J]. Expert Systems with Applications, 2018, 11: 289-295.
[11] PARHAM K, PASSOS J L A, TIAGO C, et al. Exudate detection in fundus images using deeply-learnable features [J]. Computers in Biology and Medicine, 2018, 104: 62-69.
[12] AMIN J, SHARIF M, YASMIN M, et al. A method for the detection and classification of diabetic retinopathy using structural predictors of bright lesions [J]. Journal of Computational Science, 2017, 19: 153-164.
[13] WRIGHT J, GANESH A, RAO S, et al. Robust principal component analysis: exact recovery of corrupted low-rank matrices via convex optimization [EB/OL]. [2018-12-10]. https://arxiv.org/pdf/0905.0233v1.pdf.
[14] XIAO L, FANG B, LIU L H, et al. Extracting sparse error of robust PCA for face recognition in the presence of varying illumination and occlusion[J]. Pattern Recognition, 2014, 47(2): 495-508.
[15] YAN J C, ZHU M Y, LIU H X, et al. Visual saliency detection via sparsity pursuit [J]. IEEE Signal Processing Letters, 2010, 17(8): 739-742.
[16] 倉(cāng)園園,孫玉寶,劉青山.基于分層魯棒主成分分析的運(yùn)動(dòng)目標(biāo)檢測(cè)[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2014,23(4):537-544.(CANG Y Y, SUN Y B, LIU Q S. Moving object detection based on hierarchical robust principal component analysis [J]. Journal of Computer-Aided Design and Computer Graphics, 2014, 23(4): 537-544.)
[17] CANDS E J, LI X, MA Y, et al. Robust principal component analysis? [J]. Journal of the ACM, 2011, 58(3): Article No. 11.
[18] AZIZI S, SAMAVI S, MOHREKESH M, et al. Cascaded transform space watermarking based on analysis of local entropy variation[C]// Proceedings of the 2013 International Conference on Multimedia and Expo Workshops. Piscataway, NJ: IEEE, 2013: 1-6.
[19] 付曉薇,代蕓,陳黎,等.基于局部熵的量子衍生醫(yī)學(xué)超聲圖像去斑[J].電子與信息學(xué)報(bào),2015,37(3):560-566.(FU X W, DAI Y, CHEN L, et al. Quantum-inspired despeckling of medical ultrasound images based on local entropy[J]. Journal of Electronics and Information Technology, 2015, 37(3): 560-566.)
[20] MASSIN P, CHABOUIS A, ERGINAY A, et al. OPHDIAT: A telemedical network screening system for diabetic retinopathy in the le-de-France [J]. Diabetes and Metabolism, 2008, 34(3): 227-234.
[21] DECENCIERE E, CAZUGUEL G, ZHANG X W, et al. TeleOphta: machine learning and image processing methods for teleophthalmology[J]. Innovation and Research in BioMedical Engineering, 2013, 34(2): 196-203.
[22] ZHANG X W, THIBAULT G, DECENCIRE E, et al. Exudate detection in color retinal images for mass screening of diabetic retinopathy[J]. Medical Image Analysis, 2014, 18(7): 1026-1043.