視網(wǎng)膜圖像中視盤自動定位模型設計研究
張貴英
摘要:視盤是視網(wǎng)膜圖像的重要特征,視網(wǎng)膜的定位是視網(wǎng)膜病變診斷和治療的重要前提。現(xiàn)有的視盤自動定位方法往往借助單一的特征,即傳統(tǒng)特征或者深度學習特征,所提供的信息有限。針對此,該文設計了一個將傳統(tǒng)特征和深度學習特征結合起來的視盤自動定位模型,以期為定位視盤提供更多豐富的特征信息,從而提高識別率。
關鍵詞:視網(wǎng)膜圖像;視盤;自動定位;傳統(tǒng)特征;深度學習特征
中圖分類號:TP18 文獻標識碼:A 文章編號:1009-3044(2017)22-0174-02
視神經(jīng)盤(Optic Disc,OD),也叫視神經(jīng)乳頭,簡稱視盤,為視網(wǎng)膜從黃斑向鼻側約3mm處的邊緣清楚的淡紅色圓盤狀結構,其直徑約1.5mm。視盤是視網(wǎng)膜圖像的一個重要特征,視神經(jīng)盤的物理狀態(tài),如形狀、色澤、面積和生理杯深度等參數(shù)是衡量眼底健康狀況和病灶的重要指標。在眼科眼底疾病的診斷和治療中,常見眼科眼底疾病如糖尿病視網(wǎng)膜病變、高血壓視網(wǎng)膜病變、視網(wǎng)膜脫離的裂孔定位、眼底腫瘤定位以及視網(wǎng)膜血管性疾病的診斷與治療均需要事先進行視盤的準確定位。在醫(yī)學圖像處理領域,視盤的自動定位是眼底圖像配準拼接、血管跟蹤、黃斑和病變提取,以及視盤邊緣定位等工作的基礎。
1視網(wǎng)膜圖形中視盤自動定位模型研究現(xiàn)狀
視網(wǎng)膜圖像中視盤自動定位方法是醫(yī)學圖像處理研究的熱點問題,學者們已經(jīng)提出了一系列視盤定位模型。Hoover利用血管結構相對比較穩(wěn)定這一特性,提出了利用模糊收斂算法進行血管分割來定位視盤的位置。利用這一思想的還有Foracchia,該文獻首先分割出主要的視網(wǎng)膜血管,然后根據(jù)兩個拋物線模型頂點的交點來定位視盤。Li和Walter利用視盤區(qū)域亮度變化最大的特性來設計視盤自動定位算法。除了單獨借助血管結構和視盤外觀特性外,學者們還綜合利用這兩種特征來定位視盤。Youssif首先借助分割出視網(wǎng)膜血管,利用血管的方向和結構信息獲得視盤的候選區(qū)域,然后再根據(jù)視盤的形狀找出視盤所在位置。Ahfouz、Ravishankar、Yu及其文獻均采用了這類思路。此外,Ramakanth提出了一種特征匹配的方法來定位視盤,文獻綜述了視網(wǎng)膜圖像中視盤的自動定位方法。
近年來,深度學習(Deeplearning,DL)在目標檢測、目標識別、顯著性檢測、行為識別、人臉識別和對象分割等計算機視覺領域取得了舉世矚目的成果。深度學習能提取對象的本質(zhì)特征,而特征對于對象的識別起著決定性的作用。Sadikoglu等提出了基于神經(jīng)網(wǎng)絡的視網(wǎng)膜識別算法,張貴英等提出了基于深度學習的視盤自動檢測方法,Costa等提出了基于對抗網(wǎng)絡的多樣本生成來進行視網(wǎng)膜圖像的識別工作。
2視盤自動定位模型設計
傳統(tǒng)的視盤定位方法一般為提取視盤的幾何、血管和自身屬性等特征,基于深度學習特征的方法能提取視盤的本質(zhì)特征。以往的工作往往為單獨的,即要么基于傳統(tǒng)特征進行視盤的定位研究,要么基于深度學習進行視盤的定位。如果傳統(tǒng)特征和深度學習特征結合起來,將獲得更多的特征,提供更豐富的信息,從而提高識別率。本文將傳統(tǒng)特征和深度學習特征結合起來,設計視盤定位模型。具體步驟包括視網(wǎng)膜眼底圖像采集、圖像預處理、視盤傳統(tǒng)特征的提取和深度學習特征的提取及其兩類特征融合等過程。模型的流程圖如圖1所示。
(1)實驗圖像。本模型以醫(yī)院眼底圖像和公開眼底圖像數(shù)據(jù)集為研究素材。醫(yī)院眼底圖像可為醫(yī)院眼科中心實地采集所得,其圖像分為正常和病變兩類,采集的圖像應具有代表性和客觀性。除此之外,本模型使用公開的眼底圖像,包括MES—SIDOR、DRIVE、DIARETBD0、DIARETBD1和STARE五大公開數(shù)據(jù)集。
(2)圖像預處理。為保證后續(xù)定位的準確性,對原始圖像進行一些簡單的預處理,如增強,去噪等操作。
(3)視盤特征提取。提取視網(wǎng)膜圖像中視盤本身的特征,比如基本形態(tài)特征,色度和亮度特征,彩色特征,紋理特征等,接著選擇最能刻畫視盤的主要特征。
①形態(tài)特征的提取。形態(tài)特征是視盤的形狀、大小、輪廓的規(guī)則程度的定量描述。提取視盤的周長、面積、圓度、視盤的矩形度和伸長度等特征,這些特征都能很好地反映視盤的形態(tài)。
②色度亮度特征提取。提取視盤的色度和亮度特征,如飽和度,色調(diào)和亮度等特征。
③彩色特征的提取。分別在R、G、B三個色度空間提取如下的彩色特征:均值、方差、色度變化、偏差和峰度等。
④紋理特征的提取。提取特征包括慣量,是圖像紅局部灰度變化量總量的描述;二階角距,是圖像灰度的均勻性和紋理粗細程度的度量;熵,表示能量在空間分布的均勻程度等特征。
(4)CNN特征的提取。采用多個卷積層來提取深度學習特征,實驗圖片剪裁成256*256像素,設置相關訓練參數(shù),使用深度學習框架caffe來訓練生成模型。改變已有模型卷積層和池化層的層數(shù)、卷積核的大小、池化的方式、全連接的方式來設計全新的網(wǎng)絡模型,預訓練網(wǎng)絡,并將稀疏的概念加入到網(wǎng)絡中去,尋找適當?shù)膌oss函數(shù),并進行識別分類,以期達到國內(nèi)外先進識別水平。設計的深度學習網(wǎng)絡模型結構能提取目標各個卷積層的特征,也就是通過網(wǎng)絡模型自動學習的特征,即深度學習特征。
(5)將傳統(tǒng)特征和深度學習特征融合。傳統(tǒng)特征有其獨特的優(yōu)勢,深度學習特征能刻畫對象的本質(zhì)特征,將傳統(tǒng)特征和深度學習特征的整合起來,提供更多豐富的信息,以期獲得更高的準確率。傳統(tǒng)特征和深度學習特征融合,恢復這些特征的空間局部關聯(lián)性??赏ㄟ^兩種方式將傳統(tǒng)特征和深度學習特征結合起來。其一,擬將傳統(tǒng)特征矩陣化,作為深度學習多層特征的補充;將這些特征整合起來,恢復這些特征的空間局部關聯(lián)性;再將傳統(tǒng)特征與深度學習特征統(tǒng)一輸入到深度學習網(wǎng)絡框架中去。其二,通過將傳統(tǒng)特征和深度學習特征以一定權重融合,借助傳統(tǒng)分類器(如SVM)等進行識別。
(6)設計分類器。本模型擬使用臺灣大學林智仁(Lin Chih-Jen)教授開發(fā)設計的LIBSVM作為分類器。該軟件是一個簡單、易于使用和快速有效的SVM模式識別與回歸的軟件包,不但提供了編譯好的可在Windows系列系統(tǒng)的執(zhí)行文件,還提供了源代碼,方便改進、修改以及在其他操作系統(tǒng)上應用;該軟件還有一個特點,就是對SVM所涉及的參數(shù)調(diào)節(jié)相對比較少,提供了很多的默認參數(shù),利用這些默認參數(shù)就可以更好的解決視盤定位問題。
3小結
視盤是視網(wǎng)膜圖像的重要特征,其自動定位是眼底圖像處理的重要前提。傳統(tǒng)特征和深度學習特征各自具有自身優(yōu)勢,將傳統(tǒng)特征和深度學習特征結合起來,以提供視盤更多豐富的信息。本文提出了視網(wǎng)膜圖像中視盤自動定位模型,該模型整合傳統(tǒng)特征和深度學習特征,提供更多互補信息,有望提高視盤定位準確性。endprint