郝華穎,趙 昆,蘇 攀,張 輝,趙一天,劉 江,4
(1.寧波大學(xué)機(jī)械工程與力學(xué)學(xué)院,浙江 寧波 315211;2.中國(guó)科學(xué)院寧波材料技術(shù)與工程研究所慈溪生物醫(yī)學(xué)工程研究所,浙江寧波 315201;3.沈陽(yáng)建筑大學(xué)信息與控制工程學(xué)院,沈陽(yáng) 110168;4.南方科技大學(xué) 計(jì)算機(jī)科學(xué)與工程系,廣東深圳 518055)
角膜是人體神經(jīng)分布最密集的部位,神經(jīng)末梢終點(diǎn)密度約為7 000/mm2[1]。角膜神經(jīng)負(fù)責(zé)觸覺(jué)、疼痛與溫度等感覺(jué),并在眨眼反射、傷口愈合與淚液產(chǎn)生及分泌中起重要作用[2]。共聚焦顯微鏡是一種實(shí)用、安全、無(wú)侵入且重復(fù)性良好的新型角膜神經(jīng)檢測(cè)工具,它可以清晰觀測(cè)到活體角膜的各層組織及角膜神經(jīng)[3]。臨床研究結(jié)果表明,角膜基底的神經(jīng)纖維與部分眼表及系統(tǒng)性疾病之間具有重要聯(lián)系,比如干眼癥、圓錐角膜與糖尿病神經(jīng)病變等。其中,糖尿病神經(jīng)病變患者的角膜神經(jīng)長(zhǎng)度及密度與正常人相比均較低,而彎曲度增大,且隨著病情的加重,上述參數(shù)的變化將更為顯著[4]。通過(guò)分析神經(jīng)長(zhǎng)度、密度與彎曲度等形態(tài)學(xué)參數(shù)的變化,可早期篩查并診斷出一些眼科疾病,從而降低視力損傷及失明率。因此,定量分析角膜神經(jīng)的形態(tài)學(xué)參數(shù)具有重要的臨床意義,而精準(zhǔn)提取角膜神經(jīng)是進(jìn)行形態(tài)學(xué)參數(shù)分析的基礎(chǔ)。
利用角膜神經(jīng)圖像診斷眼科疾病時(shí),通常由眼科醫(yī)生手動(dòng)標(biāo)記角膜神經(jīng),該方法主觀性強(qiáng)、診斷效率低且耗時(shí)長(zhǎng),無(wú)法滿(mǎn)足大規(guī)模角膜神經(jīng)的分割需求。然而,自動(dòng)分割技術(shù)可有效降低醫(yī)生主觀因素的影響,提高處理速度與診斷效率。借助計(jì)算機(jī)完成角膜神經(jīng)自動(dòng)分割對(duì)于實(shí)現(xiàn)大規(guī)模疾病的篩查與診斷尤為重要,但是由于對(duì)焦不準(zhǔn)確造成圖像灰度不均衡以及病理引起神經(jīng)結(jié)構(gòu)不連續(xù)等因素會(huì)對(duì)其造成不利影響。
受深度卷積神經(jīng)網(wǎng)絡(luò)模型的啟發(fā),本文提出一種基于注意力機(jī)制的角膜神經(jīng)分割算法,并將其應(yīng)用于角膜神經(jīng)的自動(dòng)分割任務(wù)中。該算法以ResU-Net 為基礎(chǔ)框架,針對(duì)角膜神經(jīng)圖像的特性,使用多尺度殘差模塊代替原有殘差模塊,并提取輸入圖像的多尺度層級(jí)信息。同時(shí),利用通道注意力機(jī)制和空間注意力機(jī)制對(duì)特征圖進(jìn)行重標(biāo)定,通過(guò)加強(qiáng)解碼器中通道和空間像素特征的重要程度來(lái)提升分割效果,以更好地輔助醫(yī)療診斷。
關(guān)于角膜神經(jīng)自動(dòng)分割算法的研究眾多,如文獻(xiàn)[5]將視網(wǎng)膜血管分割算法遷移到角膜神經(jīng)分割任務(wù)中,該算法預(yù)處理均衡化亮度和對(duì)比度后,使用模糊c-均值聚類(lèi)法實(shí)現(xiàn)角膜神經(jīng)分割并利用graphsearch 技術(shù)連接斷裂神經(jīng),且在后處理階段消除錯(cuò)誤分割。文獻(xiàn)[6]提出一種基于隨機(jī)森林和神經(jīng)網(wǎng)絡(luò)的多尺度自適應(yīng)雙模型神經(jīng)檢測(cè)算法。文獻(xiàn)[7]利用相移分析技術(shù)以增強(qiáng)共聚焦顯微圖像,并在此基礎(chǔ)上使用基于相位對(duì)稱(chēng)的濾波器來(lái)識(shí)別神經(jīng)結(jié)構(gòu)。文獻(xiàn)[8]通過(guò)頂帽濾波和一組log-Gabor 濾波器增強(qiáng)神經(jīng)結(jié)構(gòu),再使用支持向量機(jī)識(shí)別神經(jīng)。文獻(xiàn)[9]通過(guò)結(jié)合手動(dòng)提取特征和學(xué)習(xí)上下文濾波器實(shí)現(xiàn)了曲線結(jié)構(gòu)的分割。上述研究在特定情況下均可取得良好的分割結(jié)果,但是其分割過(guò)程中通常需要手動(dòng)特征和先驗(yàn)知識(shí),且計(jì)算復(fù)雜度較高,因此不適用于實(shí)際應(yīng)用過(guò)程。
深度學(xué)習(xí)技術(shù)已廣泛應(yīng)用于醫(yī)學(xué)圖像分類(lèi)、檢測(cè)[10]與分割[11]等多項(xiàng)任務(wù)中。其中,為提高傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)對(duì)像素級(jí)圖像的分割效果,文獻(xiàn)[12]提出了全卷積神經(jīng)網(wǎng)絡(luò)(Fully Convolutional Neural Networks,F(xiàn)CNN),該網(wǎng)絡(luò)在經(jīng)過(guò)多層卷積和池化操作后,利用反卷積操作對(duì)高維特征圖進(jìn)行上采樣,得到與輸入圖像相同分辨率的預(yù)測(cè)結(jié)果。文獻(xiàn)[13]提出完全對(duì)稱(chēng)的U-Net 分割網(wǎng)絡(luò),且該網(wǎng)絡(luò)在醫(yī)學(xué)圖像分割任務(wù)中性能良好,現(xiàn)已成為醫(yī)學(xué)圖像分割任務(wù)中常見(jiàn)的網(wǎng)絡(luò)結(jié)構(gòu)。U-Net 分割網(wǎng)絡(luò)采用編碼器提取特征,利用解碼器將特征圖恢復(fù)至原始分辨率,并在FCNN 的基礎(chǔ)上增加了編碼器和解碼器的跳躍連接,以融合利用先前特征層提取的細(xì)節(jié)特征。受到U-Net 的啟發(fā),ResU-Net[14]、R2U-Net[15]和Attention U-Net[16]相繼被提出并應(yīng)用于醫(yī)學(xué)圖像的分割,且取得了顯著效果。其中,ResU-Net 將U-Net 中的每個(gè)子模塊均替換為具有殘差連接的卷積模塊,從而提取圖像的更深層特征,以提高分割精確度。R2U-Net將殘差連接和循環(huán)卷積相結(jié)合并替換U-Net 中的子模塊,其中,殘差連接可用來(lái)訓(xùn)練更深的網(wǎng)絡(luò),而循環(huán)卷積可更好地對(duì)分割任務(wù)的特征進(jìn)行表示。Attention U-Net 在U-Net 跳躍連接部分引入注意力機(jī)制模塊,并重新調(diào)整編碼器的輸出特征。該模塊通過(guò)生成一個(gè)門(mén)控信號(hào)來(lái)控制不同空間位置處的重要特征,從而提高圖像分割精度。
如圖1 所示,本文提出的分割網(wǎng)絡(luò)框架共分為多尺度圖像輸入、編碼器與解碼器、注意力機(jī)制以及多層損失函數(shù)輸出4 個(gè)部分。其中,實(shí)線箭頭代表下采樣,虛線箭頭代表上采樣,點(diǎn)劃線箭頭代表順序連接。編碼器與解碼器部分采用多尺度殘差卷積模塊對(duì)編碼部分提取的多尺度圖像特征進(jìn)行上采樣,并與上一層編碼信息相融合,直至恢復(fù)輸入圖像的原尺寸大小。此外,本文算法在網(wǎng)絡(luò)的跳躍連接和解碼器部分引入了注意力機(jī)制,并采用2 個(gè)注意力模塊分別對(duì)通道和空間生成權(quán)重圖,以強(qiáng)化目標(biāo)特征。在解碼器部分,該網(wǎng)絡(luò)對(duì)各層輸出均采用多損失函數(shù)監(jiān)督機(jī)制,保證在解碼器的最后一層獲得最優(yōu)分割結(jié)果。
圖1 分割網(wǎng)絡(luò)整體框架Fig.1 Overall frame of segmentation network
本文提出的網(wǎng)絡(luò)結(jié)構(gòu)在編碼器部分以3 個(gè)不同尺寸的角膜神經(jīng)圖像作為輸入。其中,原始圖像尺寸為384×384,對(duì)其經(jīng)過(guò)雙線性插值操作分別生成192×192、96×96 尺寸的圖像。該網(wǎng)絡(luò)將不同尺度的角膜神經(jīng)圖像分別經(jīng)過(guò)一個(gè)3×3 卷積層后與編碼器下采樣得到的特征圖相連接,并將得到的新特征圖輸入下一個(gè)編碼器層,接下來(lái)將多尺度特征集成到解碼器層中,這樣不僅避免參數(shù)的大幅增長(zhǎng),還增加解碼器路徑的網(wǎng)絡(luò)寬度。此外,因?yàn)榫幋a器中下采樣操作會(huì)損失特征圖的底層特征,所以本文網(wǎng)絡(luò)利用提出的多尺度圖像輸入模塊來(lái)補(bǔ)充角膜神經(jīng)圖像的細(xì)節(jié)信息,增強(qiáng)網(wǎng)絡(luò)預(yù)測(cè)圖的結(jié)構(gòu)完整性。
編碼器與解碼器是本文所提網(wǎng)絡(luò)的主體結(jié)構(gòu)。編碼器可提取輸入圖像的深度特征,并通過(guò)跳躍連接將編碼器提取的淺層和深層特征與解碼器中上采樣得到的特征相融合,最終得到與原圖尺寸相同的分割圖。U-Net 中的編碼器結(jié)構(gòu)采用的是VGG[17]結(jié)構(gòu)中的卷積層,且每一個(gè)卷積層包括2 個(gè)3×3 的卷積核、線性整流ReLU 函數(shù)以及步長(zhǎng)為2 的最大池化層。雖然角膜神經(jīng)圖像中的神經(jīng)呈樹(shù)狀,且結(jié)構(gòu)較為完整、擁有更多的上下文信息,但是卷積神經(jīng)網(wǎng)絡(luò)對(duì)圖像的感受野仍是固定的。目前,隨著不同內(nèi)核大小的卷積層InceptionNets[18-19]、殘差模塊ResNet[20]與多尺度殘差模塊Res2Net[21]等相繼提出,卷積層的多尺度能力效率明顯得到提升。因此,為增強(qiáng)分割網(wǎng)絡(luò)對(duì)多尺度特征的表征能力,本文以ResNet-34 為網(wǎng)絡(luò)的基本框架,用多尺度殘差模塊替換原網(wǎng)絡(luò)中的殘差模塊,從而構(gòu)建出新的殘差網(wǎng)絡(luò)。
如圖2 所示,多尺度殘差模塊在經(jīng)過(guò)1×1 卷積后,特征圖被均勻劃分為s個(gè)特征子圖,用xi表示,i∈{1,2,…,s},s設(shè)置為4。與輸入特征圖相比,每個(gè)特征子圖都有一個(gè)對(duì)應(yīng)的3×3 卷積,用Ki表示,yi表示Ki的輸出。特征子圖xi與Ki的輸出相加后輸入到Ki中,因此,yi可表示為:
其中,每個(gè)3×3 卷積運(yùn)算Ki都有可能從xi接收特征信息,每次將特征拆分的xi通過(guò)3×3 卷積運(yùn)算時(shí),輸出的感受野可能比xi大。
圖2 多尺度殘差模塊Fig.2 Multi-scale residual module
多尺度殘差模塊可輸出包含不同數(shù)量的感受野大小組合,這樣有利于提取角膜神經(jīng)圖像的局部神經(jīng)和全局圖像信息。為進(jìn)一步融合不同感受野的信息,模塊將每個(gè)特征子圖的輸出通過(guò)1×1 卷積進(jìn)行通道交互,這種先分離后連接的策略可以使卷積層有效處理通道和空間特征。
在編碼器模塊中,新的殘差網(wǎng)絡(luò)能夠提取不同感受野的特征并進(jìn)行融合,使得最后編碼層能夠提取更多角膜神經(jīng)圖像的上下文特征,為解碼層恢復(fù)角膜神經(jīng)圖像信息提供更多的上下文語(yǔ)義信息。當(dāng)輸入圖像大小為384×384 時(shí),編碼器中的每一層輸出特征圖大小分別為192×192、96×96、48×48。在解碼器模塊中,編碼器的輸出特征圖通過(guò)跳躍連接與解碼器上采樣得到的特征圖相拼接,并采用2 個(gè)如圖3 所示的雙重多尺度殘差模塊對(duì)每一層生成的特征圖進(jìn)行處理。此外,本文網(wǎng)絡(luò)提出將注意力機(jī)制模塊作用于分割網(wǎng)絡(luò),在跳躍連接和編碼器階段將輸出特征圖通過(guò)注意力機(jī)制來(lái)強(qiáng)化目標(biāo)特征,以弱化背景特征。其中,圖3 中的表示特征壓縮,表示特征激勵(lì)表示特征融合。
圖3 雙重注意力機(jī)制模塊Fig.3 Dual attention mechanism modules
2.3.1 通道注意力模塊
注意力機(jī)制在近期研究中已被證明在圖像分類(lèi)及分割等方面表現(xiàn)卓越。文獻(xiàn)[22]提出的SENet 采用一種新的特征重標(biāo)定策略,通過(guò)學(xué)習(xí)自動(dòng)獲取每個(gè)特征通道的重要程度,以提升對(duì)當(dāng)前任務(wù)有用的特征并抑制無(wú)關(guān)特征。本文提出一種新的注意力機(jī)制使用方法,將SENet 中的通道注意力拓展到空間上,通過(guò)采用雙重注意機(jī)制不僅可以提升角膜神經(jīng)圖像的目標(biāo)像素特征,而且使得目標(biāo)與背景之間更易區(qū)分,同時(shí)還可檢測(cè)到更多不易分割的細(xì)小神經(jīng)。通道注意力模塊由特征壓縮、特征激勵(lì)和特征融合3 個(gè)部分組成。首先,采用全局平均對(duì)輸入的特征圖(H×W×C)進(jìn)行池化操作,通過(guò)沿空間維度進(jìn)行特征壓縮,將每個(gè)二維特征通道逐一映射為一個(gè)實(shí)數(shù)值,該值在理論上具有全局感受野,且輸出的維度(1×1×C)和輸入的特征通道數(shù)相匹配。其次,特征激勵(lì)部分包括2 個(gè)全連接層、一個(gè)ReLU 函數(shù)和一個(gè)Sigmoid函數(shù)。第一個(gè)全連接層的權(quán)重W1維度為C/r×C(r為縮放系數(shù),本文設(shè)置為16),該維度經(jīng)過(guò)一個(gè)ReLU 函數(shù)后仍保持不變。將得到的特征圖與第二個(gè)全連接層W2相乘,W的維度為C×C/r,因此輸出維度為1×1×C。最后,經(jīng)過(guò)Sigmoid 函數(shù)得到維度不變的概率圖。在特征融合部分,將特征激勵(lì)輸出的概率圖利用逐相素相乘對(duì)先前的特征圖進(jìn)行加權(quán),完成在通道維度上對(duì)原始特征的重標(biāo)定。
2.3.2 空間注意力模塊
SENet 利用全局上下文對(duì)不同通道進(jìn)行權(quán)值重標(biāo)定來(lái)調(diào)整通道依賴(lài),然而,采用在通道上的權(quán)值重標(biāo)定的特征融合不能充分利用空間位置信息。因此,本文提出了空間注意力模塊,并將通道注意力從通道拓展到空間結(jié)構(gòu)??臻g注意力模塊采用全局平均通道進(jìn)行池化,與通道注意力機(jī)制不同,池化之后的原特征圖大小變?yōu)镠×W,但與輸入的每個(gè)通道特征圖維度保持一致。在特征激勵(lì)階段,為適應(yīng)不同階段的特征圖大小,本文提出的算法采用7×7 卷積核對(duì)新特征圖進(jìn)行卷積操作,通過(guò)使用較大尺寸的卷積核來(lái)擴(kuò)大感受野,從而在整幅圖像上進(jìn)行全局權(quán)重學(xué)習(xí),接下來(lái)再經(jīng)過(guò)一個(gè)Sigmoid 函數(shù)得到空間概率圖??臻g注意力模塊將輸出的概率圖通過(guò)逐像素相乘對(duì)先前的特征圖進(jìn)行加權(quán),完成在空間維度上對(duì)原始特征的重標(biāo)定。
將通道注意力和空間注意力串聯(lián)起來(lái)可對(duì)全局上下文進(jìn)行有效建模,2 種注意力機(jī)制是通過(guò)自注意力分別對(duì)通道和空間進(jìn)行重標(biāo)定,以提取出更具判別性的特征。從圖1 所示的網(wǎng)絡(luò)整體結(jié)構(gòu)來(lái)看,網(wǎng)絡(luò)在跳躍連接和解碼器每層輸出的位置都添加了通道和空間注意力機(jī)制。跳躍連接位置的注意力機(jī)制主要是為了將更具判別性的角膜神經(jīng)圖像特征輸入解碼層中補(bǔ)充細(xì)節(jié)信息;解碼器輸出層的注意力機(jī)制主要是對(duì)上采樣得到的特征圖進(jìn)行信息選擇,利用通道和空間注意力的作用可得到加權(quán)后的特征,更有利于分割出角膜神經(jīng)圖像中肉眼不易察覺(jué)的神經(jīng)。
在分割算法中,交叉熵?fù)p失是常見(jiàn)的損失函數(shù)。由于在角膜神經(jīng)圖像中,角膜神經(jīng)面積通常只占據(jù)圖像的一小部分,而交叉熵?fù)p失函數(shù)很容易忽略這些細(xì)節(jié)信息,因此本文使用Dice 系數(shù)損失函數(shù)來(lái)代替交叉熵?fù)p失函數(shù)。Dice 系數(shù)損失函數(shù)是一種計(jì)算重疊區(qū)域的度量函數(shù),其能夠有效評(píng)估分割性能,且可定義為:
其中,N表示像素的個(gè)數(shù)分別表示對(duì)應(yīng)第k個(gè)類(lèi)別時(shí)的預(yù)測(cè)概率與真實(shí)像素類(lèi)別,K表示需要分割的種類(lèi)個(gè)數(shù),wk表示第k個(gè)類(lèi)別的權(quán)重,且滿(mǎn)足
此外,在解碼器的每個(gè)輸出層都增加Dice 系數(shù)損失函數(shù),以監(jiān)督不同尺度的特征學(xué)習(xí),且網(wǎng)絡(luò)通過(guò)優(yōu)化每一層的該損失函數(shù),可指導(dǎo)每個(gè)編碼層和解碼層的輸出。本文將所有層損失函數(shù)的均值作為最終網(wǎng)絡(luò)反向傳播值。
實(shí)驗(yàn)數(shù)據(jù)集有1 578 張角膜神經(jīng)圖像,包含正常志愿者、糖尿病患者和干眼癥患者3 個(gè)類(lèi)別。采集的角膜神經(jīng)圖像為二維灰度圖,分辨率為384×384,覆蓋角膜大約400 μm×400 μm 的區(qū)域。為評(píng)估本文算法的性能,所有角膜神經(jīng)圖像均采用人工標(biāo)注,而人工標(biāo)注是通過(guò)眼科專(zhuān)家使用Neuron J 軟件手動(dòng)標(biāo)注所有可見(jiàn)神經(jīng)的單像素中心線來(lái)實(shí)現(xiàn)的,并將標(biāo)注結(jié)果作為金標(biāo)準(zhǔn)。實(shí)驗(yàn)數(shù)據(jù)集分為2 個(gè)部分:1)包含1 390 張圖像的訓(xùn)練集;2)包含188 張圖像的測(cè)試集。角膜神經(jīng)圖像及對(duì)應(yīng)金標(biāo)準(zhǔn)示例如圖4 所示。
圖4 角膜神經(jīng)圖像及其對(duì)應(yīng)金標(biāo)準(zhǔn)示例Fig.4 Corneal nerve image and corresponding gold standard example
為評(píng)估算法的分割效果,本文用特異性(Specificity,Spe)、準(zhǔn)確率(Accuracy,Acc)與敏感度(Sensitivity,Sen)來(lái)評(píng)估算法性能,且其計(jì)算方法分別為:
其中,TP 表示正確識(shí)別為神經(jīng)的像素,TN 表示正確識(shí)別為背景的像素,F(xiàn)P 表示錯(cuò)誤識(shí)別為神經(jīng)的像素,F(xiàn)N 表示錯(cuò)誤識(shí)別為背景的像素。此外,本文還計(jì)算了ROC 曲線下面積(Area Under Curve,AUC)。
本文提出的網(wǎng)絡(luò)結(jié)構(gòu)基于Pytorch 開(kāi)源深度學(xué)習(xí)框架實(shí)現(xiàn),并使用NVIDIA TITAN XP 顯卡進(jìn)行加速。在網(wǎng)絡(luò)訓(xùn)練時(shí),本文使用帶動(dòng)量的隨機(jī)梯度下降(SGD)方法優(yōu)化算法訓(xùn)練模型,初始學(xué)習(xí)率為0.001,批處理大?。˙atch Size)設(shè)置為4,使用poly 學(xué)習(xí)率衰減策略,并采用L2 正則化(衰減因子為0.000 5)以避免過(guò)擬合情況的發(fā)生。在評(píng)估實(shí)驗(yàn)結(jié)果時(shí),采用五折交叉驗(yàn)證方法對(duì)1 390 張圖像進(jìn)行訓(xùn)練,并將訓(xùn)練集隨機(jī)分為5 個(gè)訓(xùn)練子集,每次不重復(fù)地選取其中4 個(gè)子集作為訓(xùn)練集,1 個(gè)作為驗(yàn)證集。訓(xùn)練結(jié)束后可以在每個(gè)驗(yàn)證集上得到最好的5 個(gè)模型,最后在188 張測(cè)試集上測(cè)試并求平均值得到最終結(jié)果。
本文共進(jìn)行兩組實(shí)驗(yàn)來(lái)評(píng)價(jià)網(wǎng)絡(luò)的分割效果,結(jié)果如表1 與圖5 所示。其中,表1 中的最優(yōu)結(jié)果加粗表示。
表1 不同分割算法的評(píng)估結(jié)果對(duì)比Table 1 Comparison of evaluation results of different segmentation algorithms
圖5 不同分割算法的實(shí)驗(yàn)效果對(duì)比Fig.5 Comparison of experimental effects of different segmentation algorithms
從表1 與圖5 可以看出:U-Net 作為經(jīng)典的醫(yī)學(xué)圖像分割網(wǎng)絡(luò)之一,同時(shí)也是本文網(wǎng)絡(luò)的基本骨架,在角膜神經(jīng)上圖像上得到的AUC、Sen 分別為0.930、0.819,但其分割結(jié)果存在欠分割現(xiàn)象;ResUNet 在U-Net 基礎(chǔ)上增加了殘差機(jī)制,使得AUC 增大至0.942,且表現(xiàn)優(yōu)于U-Net;R2U-Net 在殘差機(jī)制基礎(chǔ)上引入循環(huán)機(jī)制模塊,進(jìn)一步使得AUC 增大至0.955,高于ResU-Net,原因可能是與其他網(wǎng)絡(luò)相比,循環(huán)網(wǎng)絡(luò)機(jī)制的優(yōu)化較為困難,導(dǎo)致分割表現(xiàn)不如注意力機(jī)制網(wǎng)絡(luò);Attention U-Net 和Attention ResUNet 將注意力機(jī)制引入分割網(wǎng)絡(luò)中,重新調(diào)整編碼器的輸出特征,從而提高解碼器中輸出預(yù)測(cè)圖精度,分割結(jié)果顯示該方法優(yōu)于其他深度學(xué)習(xí)分割算法,但是存在過(guò)分割現(xiàn)象;本文提出的改進(jìn)ResU-Net 網(wǎng)絡(luò)的分割性能明顯優(yōu)于其他深度學(xué)習(xí)分割算法,AUC、Sen 分別達(dá)到0.990、0.880,且其能夠較完整地分割出角膜神經(jīng)結(jié)構(gòu),有效區(qū)分神經(jīng)與非神經(jīng)區(qū)域,避免欠分割和過(guò)分割現(xiàn)象的發(fā)生。
消融實(shí)驗(yàn)研究了本文算法中6 種模塊的評(píng)估結(jié)果與實(shí)驗(yàn)效果對(duì)比,結(jié)果如表2 與圖6 所示。從表2與圖6 可以看出:當(dāng)使用多尺度殘差模塊代替ResUNet 殘差模塊時(shí),AUC 由0.942 提升至0.965,Spe 達(dá)到0.992,Sen 由0.828 提升至0.842,分割效果得到提升,且預(yù)測(cè)圖像也表明多尺度殘差模塊能夠?qū)⑾鄬?duì)完整的角膜神經(jīng)分割出來(lái),這主要是因?yàn)槎喑叨葰埐钅K在增加卷積核感受野的同時(shí),又將全局和局部信息相融合,有效增強(qiáng)網(wǎng)絡(luò)對(duì)上下文信息的提??;而當(dāng)通道注意力和空間注意力機(jī)制共同作用于該網(wǎng)絡(luò)時(shí),該網(wǎng)絡(luò)分割性能得到明顯提升,AUC 由0.965提升到0.980,Sen 也達(dá)到0.861,且與多尺度殘差模塊相比,空間注意力模塊的圖像不僅將原圖中細(xì)小的神經(jīng)分割出來(lái),還去掉了多尺度殘差模塊中多余的非神經(jīng)像素,因此注意力機(jī)制的引入對(duì)圖像的前景和背景進(jìn)行了有效區(qū)分;多尺度輸入和多層損失函數(shù)監(jiān)督模塊的引入也進(jìn)一步使得原網(wǎng)絡(luò)的分割結(jié)果更加準(zhǔn)確,在保持較高AUC 和Spe 的同時(shí),增強(qiáng)了對(duì)角膜神經(jīng)分割的敏感度和對(duì)目標(biāo)像素的特征學(xué)習(xí)。在2 個(gè)多尺度輸入輸出模塊作用下,該模型能夠完整分割出神經(jīng)區(qū)域,并對(duì)背景相似特征信息進(jìn)行有效區(qū)分。
表2 本文算法中不同模塊評(píng)估結(jié)果對(duì)比Table 2 Comparison of evaluation results of different modules in the proposed algorithm
圖6 本文算法中不同模塊的實(shí)驗(yàn)效果對(duì)比Fig.6 Comparison of experimental effects of different modules in the proposed algorithm
如圖6 中第3 行預(yù)測(cè)圖像所示(虛線箭頭所指),原圖中存在線狀區(qū)域與神經(jīng)特征類(lèi)似,在醫(yī)生的金標(biāo)準(zhǔn)中并未被標(biāo)注為神經(jīng),但是在網(wǎng)絡(luò)中被錯(cuò)誤識(shí)別為神經(jīng)區(qū)域。這種過(guò)分割現(xiàn)象在角膜神經(jīng)圖像分割方法中普遍存在,而本文所提網(wǎng)絡(luò)僅能在一定程度上優(yōu)化,并不能完全解決該問(wèn)題。
本文在深度學(xué)習(xí)分割網(wǎng)絡(luò)模型的啟發(fā)下,通過(guò)對(duì)ResU-Net 結(jié)構(gòu)進(jìn)行改進(jìn),提出一種角膜神經(jīng)自動(dòng)分割算法。該算法使用多尺度殘差模塊替換原有ResU-Net 殘差模塊以增加多尺度表征信息,利用引入的注意力機(jī)制模塊在通道與空間雙重注意力作用下,增強(qiáng)角膜神經(jīng)圖像上的目標(biāo)區(qū)域特征,并使得角膜神經(jīng)的背景及前景更具判別性。通過(guò)加入多尺度圖像輸入與多層損失函數(shù)輸出模塊,以監(jiān)督網(wǎng)絡(luò)中每一分割層的特征學(xué)習(xí)。實(shí)驗(yàn)結(jié)果表明,與U-Net、ResU-Net 等分割算法相比,該算法的分割效果得到顯著提高。下一步考慮將臨床先驗(yàn)知識(shí)引入角膜神經(jīng)自動(dòng)分割系統(tǒng)中,在系統(tǒng)后處理階段依據(jù)臨床先驗(yàn)知識(shí)對(duì)網(wǎng)絡(luò)分割出的神經(jīng)結(jié)構(gòu)進(jìn)行篩選,以更有效地識(shí)別神經(jīng)與非神經(jīng)區(qū)域。