亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于U-Net的多尺度特征增強視網膜血管分割算法

        2023-10-21 07:48:10張志昂廖光忠
        計算機應用 2023年10期
        關鍵詞:特征

        張志昂,廖光忠

        基于U-Net的多尺度特征增強視網膜血管分割算法

        張志昂1*,廖光忠2

        (1.武漢科技大學 計算機科學與技術學院,武漢 430065; 2.智能信息處理與實時工業(yè)系統湖北省重點實驗室(武漢科技大學),武漢 430065)( ? 通信作者電子郵箱zzacc1551490@163.com)

        針對傳統視網膜血管分割算法存在血管分割精度低和病灶區(qū)域誤分割等缺點,提出一種基于U-Net的多尺度特征增強視網膜血管分割算法(MFEU-Net)。首先,為解決梯度消失問題,設計一種改進的特征信息增強殘差模塊(FIE-RM)替代U-Net的卷積塊;其次,為擴大感受野并提高對血管信息特征的抽取能力,在U-Net的底部引入多尺度密集空洞卷積模塊;最后,為減少編解碼過程中的信息損失,在U-Net的跳躍連接處構建多尺度通道增強模塊。在DRIVE(Digital Retinal Images for Vessel Extraction)和CHASE_DB1數據集上的實驗結果表明,與在視網膜血管分割方面表現次優(yōu)的算法CS-Net(Channel and Spatial attention Network)相比,MFEU-Net的F1分數分別提高了0.35和1.55個百分點,曲線下面積(AUC)分別提高了0.34和1.50個百分點,這驗證了MFEU-Net可以有效提高對視網膜血管分割的準確性和魯棒性。

        視網膜血管分割;U-Net;多尺度信息;密集空洞卷積;殘差網絡;病灶區(qū)域

        0 引言

        眼底中蘊含了大量的微小血管,可以利用設備直接觀察視網膜中的血管系統,為醫(yī)生的后續(xù)治療方案提供幫助。視網膜血管的形狀變化[1]在一定程度上直接反映了身體健康狀況,如糖尿病病人、青光眼患者等視網膜的細微變化可以較好地反映器官的健康狀況。為了提供更好的治療方案,準確分割視網膜血管尤為重要。只有準確地分割出微小血管,才能進行進一步的診斷,因此使用高精度的視網膜血管分割算法幫助疾病治療十分重要。

        目前,國內外研究者提出了大量的視網膜血管分割算法[2],這些分割算法主要分為兩類:無監(jiān)督算法[3]和有監(jiān)督算法[4]。無監(jiān)督算法旨在不借助注釋或者其他提示信息,只根據血管本身存在的特征實現對視網膜血管的準確分割,主要步驟包括閾值、濾波、形態(tài)變換和反變化。因此,無監(jiān)督算法也可分為基于匹配濾波的算法[5]、基于血管形態(tài)的算法和基于血管跟蹤的算法。為了提高細小血管的檢出率,Contejean等[6]使用改進的弗蘭吉(Frangi)濾波器和補丁降噪器減少視網膜圖像中明亮區(qū)域和病變區(qū)域對血管分割的影響,實現視網膜血管分割;但Frangi濾波器會使圖像整體平滑,導致忽略一些對比度低的血管。Graham等[7]從血管跟蹤的角度出發(fā),考慮細小血管的分支點和血管之間的交叉點,提出一種基于貝葉斯理論和多尺度檢查的視網膜血管分割算法,但該算法過于重視分支點的存在,忽略了主干血管的位置信息。

        有監(jiān)督算法旨在依據大量經過手動注釋的樣本構建算法,使得算法可以自動提取視網膜血管信息,完成視網膜血管分割。Jainish等[8]提出一種全新的視網膜預處理方法,利用自適應直方圖均衡化和魯棒距離變換預處理視網膜圖像,可以提高視網膜血管的分割準確率;但該算法利用圖像不同區(qū)域的色素差異預處理,難以處理低對比度的視網膜血管。一種完全對稱式的編碼解碼算法U-Net[9]被提出,該算法使用通道拼接融合技術恢復編碼過程中丟失的血管特征信息,但該算法直接將編碼結果融入解碼器會不可避免地造成血管信息丟失。Wang等[10]提出AttU-Net(Attention U-Net),該算法是在U-Net中的跳躍連接處引入注意力門控機制遏制背景像素對分割結果的影響;但是該算法只是修改編解碼的融合方式,未考慮血管本身存在的多尺度信息,因此在對細小血管的分割方面存在分割精度低的缺點。Mou等[11]提出CS-Net(Channel and Spatial attention Network),該算法是在U-Net的底部設計了一種并聯的空間注意力和通道注意力模塊,實現對視網膜血管的精準分割,但該算法未考慮編解碼過程存在的信息損失,因此在細小血管的分割方面存在誤分割現象。

        雖然,以上算法在分割血管特征信息方面取得了不錯的效果,但上述方法大多存在以下問題:1)算法對細小血管的分割準確率較低,極易在細小血管的分割過程中出現誤分、漏分等現象;2)算法的魯棒性較低,在血管分割中容易受到病變區(qū)域的影響,產生大量背景噪聲;3)難以充分捕獲血管的邊界信息,導致血管邊界分割不精準。

        針對以上視網膜血管分割算法存在的問題,本文提出一種基于U-Net的多尺度特征增強視網膜血管分割算法(Multi-scale Feature Enhanced retinal vessel segmentation algorithm based on U-Net, MFEU-Net)。首先,通過圖像亮度變換等手段對視網膜圖像預處理,再使用圖像翻轉、裁剪、平移等方式擴充數據。其次,在U-Net的基礎上,MFEU-Net使用特征信息增強殘差模塊(Feature Information Enhancement Residual Module, FIE-RM)代替?zhèn)鹘y的卷積塊,實現對血管特征信息的增強處理;為了擴大算法的感受野,提高抽取血管多尺度特征信息的能力,在U-Net的底部引入多尺度密集空洞增強模塊(Multi-scale Channel Enhancement module, MCE)。最后,為了消除噪聲干擾并增強血管信息傳輸能力,在跳躍連接處構建一種多尺度通道增強模塊,提高算法對細小血管的分割精度。

        1 網絡構建

        1.1 網絡總體架構

        本文提出的基于U-Net的多尺度特征增強視網膜血管分割算法(MFEU-Net)的網絡結構如圖1所示。MFEU-Net在U-Net的基礎上改進,使用了4層編碼和解碼結構,使用FIE-RM替換傳統的卷積塊,增強血管的細微特征信息,防止網絡出現過擬合和梯度消失,并進行通道維度變換,將輸入圖像的特征通道數改為32,增加血管分割特征通道;其次,利用最大池化進行下采樣操作;為了提取血管的多尺度特征信息,在網絡底部引入多尺度密集空洞卷積模塊(Multi-scale Dense Atrous Convolution module, MDAC)提取編碼層最后一層的特征輸出;再次,為了減少在編解碼過程造成的信息損失,在跳躍連接處構建一種多尺度通道增強模塊(MCE),以準確分割細小血管;接著,通過轉置卷積進行上采樣操作以恢復圖像細節(jié)和空間尺寸;最后,將最后一層解碼層的輸出傳送至帶有Sigmoid激活函數的1×1卷積,獲取最終預測的視網膜血管分割圖像,實現對視網膜血管的高精度分割。

        圖1 MFEU-Net總體網絡結構

        1.2 特征信息增強殘差模塊

        傳統卷積模塊難以針對性地訓練血管像素,因此本文參考殘差模塊和空間注意模塊,設計了FIE-RM,基本結構如圖2所示,主要包括卷積層、BatchNorm層、DropBlock層、ReLU(Rectified Linear Unit)層和Softmax層。DropBlock層進一步優(yōu)化DropOut層,解決了DropOut層無法丟失激活單元的問題,可以使網絡更加關注血管特征。為了實現對血管特征信息的充分抽取,使用了4種不同尺度的卷積塊多尺度抽取視網膜血管特征。假定輸入的視網膜眼底圖像∈R×H×W,其中、和為圖像尺寸。首先將輸入的眼底圖像數據由3×3的卷積層進行信息抽取,生成新的特征映射∈R×H×W,再使用1×3卷積、3×1卷積、3×3卷積和5×5卷積對進行多路徑空間信息抽取,同時填充抽取結果使得輸出尺寸與輸入尺寸保證一致,并將輸出結果合并生成∈R×H×W。其次使用兩個不同的AdaptiveAvgPool2d層進行平均行池化和列池化,產生兩個不同的輸出∈R×H×1和∈R×1×W,使用Softmax函數產生每個像素對應的行權重和列權重。最后將權重結果相乘,得到每個像素對應的空間權重圖∈R×H×W,將權重圖與特征映射相乘,通過殘差連接與連接,計算過程如下:

        其中:xi代表輸入的圖像數據;h(xi)表示函數映射;pool1是對行平均池化;pool2是對列平均池化;Conv表示卷積操作;xi+1表示經過特征信息增強殘差模塊處理后的操作結果。引入殘差模塊的主要目的是使權重更新非零,解決算法難以更新,甚至隨網絡層數的增加性能衰減的問題。因此,使用FIE-RM模塊替換傳統U-Net中的卷積模塊,增強血管的細微特征信息,有效地提取細小血管特征。

        1.3 多尺度密集空洞卷積模塊

        為了捕獲不同尺度的血管特征信息,本文結合傳統的并聯、串聯和擴張卷積的優(yōu)點構造了MDAC,如圖3所示。

        圖3 多尺度密集空洞卷積模塊

        在MDAC中,假設輸入特征圖為∈R×H×W,首先,將進行下采樣操作,生成低分辨率特征圖∈R×H/2×W/2。其次,分別對和進行密集空洞卷積操作??斩淳矸e以串聯方式堆疊,由于U-Net底部的輸入血管圖像的尺寸較小,因此在此處對的密集空洞卷積模塊設置4個分支,每個分支不僅作為下一分支的輸入,還作為最終結果的一部分進行融合。隨著分支的空洞卷積數量的增加,各個模塊的空洞率(Rate)從1到2和3,每個分支的感受野分別為3、5、7、9。由于是下采樣的結果,因此對的密集空洞卷積模塊設置3個分支,各個分支的感受野大小分別為3、7、9。最后,將經過密集空洞卷積模塊的輸出進行上采樣生成∈R×H×W與輸入大小保持一致,將和經過密集空洞卷積的輸出進行拼接,并使用一個1×1卷積校正通道維度,得到輸出結果∈R×H×W。通過引入MDAC模塊可以在擴大感受野的同時不遺漏細小血管信息,從而實現視網膜血管的精準分割。

        1.4 多尺度通道增強模塊

        盡管使用FIE-RM取代傳統的卷積塊可以緩解梯度消失和增強血管特征,引入了MDAC在算法底部抽取血管的多尺度信息,但在編解碼過程中,如果直接將編碼結果與解碼結果相連,仍會不可避免地造成通道血管信息損失。因此,本文構建了MCE,MCE通過使用不同的編碼層作為輔助手段增加與當前解碼層對應的編碼層中的血管通道特性信息,實現對編碼結果的高效傳輸,它的數學定義如下:

        其中:upsample代表利用轉置卷積上采樣;downsample代表利用最大池化進行下采樣操作;1、2和3分別代表不同階段的編碼器輸出;1、2和3代表經過多尺度通道增強模塊后的操作結果。

        MCE如圖4所示,假設當前層的輸入特征圖為∈R×H×W,首先利用最大池化進行下采樣或者使用轉置卷積進行上采樣操作,將不同編碼層的輸出數據維度保持一致。其次,為了充分利用不同層次的編碼輸出,將其余層次的編碼輸出直接融合后,使用3×3的卷積層抽取融合結果的空間信息;為了生成通道注意力機制,在3×3卷積層后連接平均池化(avgpool)和最大池化(maxpool)層,生成∈R×H/2×W/2和∈R×H/2×W/2。再次,將轉置之后與矩陣相乘生成∈R,再對使用Softmax函數,生成通道注意力特征圖∈R,對和進行矩陣乘法生成全新的矩陣特征圖。最后,使用殘差連接將與全新的矩陣特征圖融合,生成輸出特征圖∈R。原理計算公式如下:

        其中:和表示經過平均池化和最大池化生成的特征映射,x和y表示不同的特征通道;Jy表示輸入特征圖;N表示特征通道數。通過使用MCE減少編解碼過程造成的信息損失,增強細微血管的通道特征,提取更多的細小血管特征,并減少背景噪聲的干擾。

        2 實驗與結果分析

        2.1 實驗環(huán)境與數據

        本文實驗環(huán)境為:Window 10操作系統、CPU Intel Core i5-12400f 2.5 GHz、16 GB RAM和NVIDIA GTX 1080Ti。使用DRIVE(Digital Retinal Images for Vessel Extraction)[9]和CHASE_DB1[9]公開眼底圖像數據集測試本文算法的有效性。

        DRIVE數據集由40張分辨率為565×584像素的彩色視網膜眼底圖像組成,訓練集和測試集各包含20張視網膜圖像。其中,包含7張視網膜圖像采樣自糖尿病病人,剩余圖像均沒有任何病理表現。CHASE_DB1數據集由20張分辨率為990×96像素的彩色視網膜圖像組成。由于CHASE_DB1并沒有明確劃分測試集和訓練集,為了保障實驗的公平性與可靠性,本文采用4折交叉驗證隨機劃分數據集,最終數據集被劃分為擁有21張的彩色視網膜圖像的訓練集和擁有剩余7張彩色視網膜圖像的測試集。每張圖像由兩位專家手動分割,本文將第一位專家手動注釋的圖像作為分割標準,另一位專家手動注釋的圖像則用于實驗結果評估,即金標準。

        2.2 網絡參數設置

        在深度學習框架PyTorch1.7.1上訓練MFEU-Net,首先將DRIVE和CHASE_DB1數據集調整圖像格式,將DRIVE數據集下的圖像調整為長寬均為576像素的視網膜眼底圖像,將CHASE_DB1數據集下的圖像調整為長寬均為960像素的視網膜眼底圖像,并利用骰子損失函數訓練網絡參數,提升收斂速度。本文對各卷積層的權值進行Kaiming初始化,使用Adam優(yōu)化器更新網絡參數,初始學習率設置1×10-3,批處理大小為2,每訓練20次將學習率衰減為原來的1/10;動量系數設置為0.9,權值衰減系數設置為0.000 2,batch_size設置為16,迭代總數為200,此外,將DropBlock中的塊大小block_size設置為7。

        2.3 數據預處理

        公開眼底數據集的視網膜血管圖像中存在光照不均、噪聲干擾和對比度低的缺點,為了提高算法的血管分割效果,在擴充數據前先預處理眼底圖像。首先,將原始的RGB圖像轉化為單通道的灰度圖像;其次,為了進一步地規(guī)范圖像并限制圖像,利用對比度受限制的自適應直方圖均衡化(Contrast Limited Adaptive Histogram Equalization, CLAHE)[12]改善圖像灰度細節(jié);最后,采用局部自適應伽馬變換(Gamma)[13]矯正圖像亮度,抑制偽影干擾。

        由于眼底視網膜圖像的數量有限,難以充分訓練網絡,本文對眼底視網膜數據集進行擴充,通過隨機翻轉、平移、裁剪實現數據擴充,防止網絡出現過擬合。

        2.4 評價指標和損失函數

        視網膜血管分割將眼底視網膜圖像的每個像素點分類為血管和背景部分,因此視網膜血管分割本質上是二分類問題。本文使用了靈敏度(Sensitivity)、查準率(Precision)、F1分數1(F1 Score)、準確率(Accuracy)和ROC(Receiver Operating Characteristic)曲線下面積(Area Under Curve, AUC)指標,評估本文算法的性能,評估公式如下:

        其中:、、和分別表示真陽性、假陽性、真陰性和假陰性。靈敏度代表血管像素被正確分類的概率,查準率表示預測為血管像素中的真實血管像素的比例,F1分數表示算法的輸出結果與給出的分割圖像標準之間的相似程度,準確率表示所有的像素被正確分類的概率。由于背景的像素占比較大,難以在血管邊界處準確定義像素類別,因此本文使用骰子損失函數取代傳統的交叉熵損失函數,骰子損失函數的定義為:

        其中:表示視網膜血管圖像的像素總數;w表示像素的真實類別;w表示像素的預測結果;為平滑系數,可以解決極端情況下分母為0導致算法無法收斂的問題。骰子損失函數可以使視網膜血管分割算法重點挖掘血管像素,從而實現對血管的精準分割。

        2.5 算法對比

        為了驗證MFEU-Net的優(yōu)越性,將它與4種視網膜血管分割算法對比,對比算法包括U-Net[9]、ResU-Net(Residual U-Net)[14]、AttU-Net[10]和CS-Net[11],采用相同的實驗條件和訓練策略在DRIVE和CHASE_DB1數據集上進行視網膜血管分割實驗,實驗結果如圖5所示。從圖5中可以發(fā)現,U-Net作為視網膜血管分割網絡的經典算法,僅能分割血管的大致走向與分布,但在分割血管交叉處容易出現主血管斷裂與誤分割的現象。在U-Net的基礎上,ResU-Net將卷積塊替換為殘差卷積,可以在對血管主干網絡精細抽取的同時不會出現過擬合,性能優(yōu)于傳統的U-Net,但對一些細小血管的提取準確率較低,容易得到帶有假陽性的血管區(qū)域。AttU-Net在跳躍連接處提出一種注意力門控(Attention Gates, AGs)機制實現對帶有噪聲的背景區(qū)域印制的同時加大對血管區(qū)域的關注程度,在提取主干網絡的同時可以降低背景噪聲的影響,但在細小血管的分割方面仍存在誤分割。CS-Net在U-Net的底部提出了并聯的通道和空間注意力模塊,將血管局部信息與全局信息統一,以實現血管的高精度分割,可以精確地分割血管主干和細小血管,并在對細小血管的分割方面也有著較高的精度,但在對邊緣血管分割時會出現誤分割。MFEU-Net的分割結果整體與專家手動分割的血管圖像保持一致,相較于其他對比算法,在細小血管的分割處不會出現斷連的情況,保障了血管的連通性,降低了背景噪聲的影響。因此MFEU-Net可以精細地保留血管的結構信息,并且具有一定的抗干擾能力,可以實現對視網膜血管的高精度分割。

        2.5.1不同算法分割細節(jié)對比

        為了進一步驗證MFEU-Net的性能優(yōu)勢,與U-Net、ResU-Net、AttU-Net和CS-Net視網膜血管分割算法進行了分割圖像的局部區(qū)域對比,對比結果如圖6所示。U-Net可以分割主干血管,但在血管交叉處和細小血管區(qū)域的分割精度較低;ResU-Net相較于U-Net對細小血管的分割效果有一定提升,但極易出現斷連現象;AttU-Net可以逐漸分割邊界血管的大體形狀,但分割出現斷連;CS-Net可以在準確分割主干血管的同時準確分割細小血管,但在血管連接處仍出現斷連的現象;MFEU-Net可以在準確分割主干血管和細小血管的同時,做到血管不斷連,極大地保證了分割出的視網膜血管的完整性。通過以上不同算法的分割細節(jié)對比實驗,說明本文利用FIE-RM替代傳統的卷積可以使圖像信息盡量完整,能有效突出血管關鍵信息;MDAC可以擴大感受野提高分割精度,促進主干血管和細小血管的融合;MCE可以使算法充分利用不同層次的編碼信息,有助于消除血管特征圖的背景噪聲和冗余信息,驗證了MFEU-Net在視網膜血管分割方面具有較高的準確率和抗干擾性。

        圖5 不同算法的分割結果

        2.5.2不同算法分割效果對比

        為了驗證MFEU-Net對U-Net改進的有效性,與不同的改進U-Net算法進行對比實驗。分別在DRIVE和CHASE_DB1數據集上測試靈敏度、查準率、準確率、F1分數和AUC指標,實驗結果如表1所示。MFEU-Net的各個指標均達到了最優(yōu)結果,與表現次優(yōu)的CS-Net相比,MFEU-Net的F1分數分別提高了0.35、1.55個百分點,AUC分別提高了0.34、1.50個百分點,表明了MFEU-Net的有效性,充分驗證了MFEU-Net相較于其他對比視網膜血管分割算法在血管分割方面精度更高,可以準確地分割細小血管,有效地降低背景像素對血管分割的影響,具有良好的血管分割能力和魯棒性。

        2.6 與先進算法分割效果對比

        為了更清晰地驗證本文算法在視網膜血管分割方面的優(yōu)越性能,將MFEU-Net與近年來在DRIVE和CHASE_DB1數據集上的性能表現較好的先進算法進行對比實驗。在DRIVE數據集上,與DUNet(Deformable U-Net)[15]、CE-Net(Context Encoder Network)[16]、IterNet[17]、SA-UNet(Spatial Attention U-Net)[18]和RV-GAN[19]進行對比實驗,實驗結果如表2所示。在CHASE_DB1數據集上與R2U-Net(Recurrent Residual convolutional neural network based on U-Net)[20]、VGN(Vessel Graph Network)[21]、SA-UNet、DUNet和RV-GAN進行對比實驗,實驗結果如表3所示。

        在DRIVE數據集上,MFEU-Net在準確率、查準率、F1分數和AUC值上分別取得了最優(yōu)結果,表明MFEU-Net可以在準確地識別出細小血管存在的同時做到不誤判像素的分類,在視網膜血管分割方面具有優(yōu)越的性能。與MFEU-Net相比,DUNet的靈敏度提升了0.06個百分點,但在其余指標中均低于MFEU-Net,表明DUNet可以做到大致不遺漏血管像素,但容易分割出未經專家標注的血管像素,導致更大的假陽性。在CHASE_DB1數據集上,MFEU-Net在準確率、靈敏度、F1分數和AUC值上達到了最優(yōu)結果,表明MFEU-Net的誤分割概率小,有較小的假陽性。與MFEU-Net相比,SA-UNet的查準率提升了0.13個百分點,但其余指標都低于MFEU-Net,這是由于SA-UNet容易將血管像素誤分類為背景的像素,導致更大的假陰性。在與其他先進算法的對比實驗中,MFEU-Net在視網膜血管分割方面具有較高的精準率和魯棒性,充分說明了MFEU-Net在視網膜血管分割方面的高效性。

        表2 DRIVE數據集上本文算法與先進算法的對比

        表3 CHASE_DB1數據集上本文算法與先進算法的對比

        2.7 算法復雜度評估

        MFEU-Net基于U-Net改進,使用了4層編碼和解碼結構。FIE-RM模塊共含有24層3×3卷積、12層1×3卷積、12層3×1卷積和12層5×5卷積,MDAC共含有10層3×3卷積和5層1×1卷積,MCE共含有3層3×3卷積塊,下采樣和轉置卷積模塊的參數量較少,因此MFEU-Net的時間復雜度主要受FIE-RM、MDAC和MCE這3個模塊的參數量與計算量的影響。對于同樣采用U-Net架構的視網膜血管分割算法,它的時間復雜度相同。表4展示了不同基于U-Net改進的視網膜血管分割算法在DRIVE和CHASE_DB1數據集上的占用內存和運行時間??梢钥闯鯢IE-RM、MDAC和MCE這3個模塊對占用內存和預測時間的影響較少,但可以有效地提高視網膜血管的分割精度。相較于CE-Net和CS-Net,本文算法在運行時間和內存占用上有小幅增加,但增加幅度均不超過3.00個百分點。

        表4 不同算法的占用內存和運行時間對比

        注:M1代表U-Net,“√”代表引入相應模塊,M4即MFEU-Net。

        2.8 消融實驗

        為了進一步驗證本文算法中各個模塊的有效性,分別在DRIVE和CHASE_DB1數據集上進行消融實驗,實驗結果如表5所示。

        表5 消融實驗結果

        可以發(fā)現,M1在視網膜血管分割方面已經取得了不錯的精度,但分割效果仍需進一步地提升;M2相較于M1在各項指標上均有不同程度的提升,表明FIE-RM可以提高血管分割精準度;M3相較于M2,分割效果得到進一步提升,說明MDAC可以抽取血管的多尺度信息;M4相較于M3,各個指標均有一定程度的提高,表明MCE可以通過融合不同層次的編碼信息消除背景噪聲的影響,從而實現對細小血管的高精度分割。上述實驗結果表明,MFEU-Net具有一定的有效性和合理性。M1~M4的性能呈現上升趨勢,可以說明本文所提出的各個模塊對U-Net算法的改進有效。M4的AUC值最高,表明MFEU-Net在視網膜血管分割方面具有較高的準確率,可以準確分割出主干血管和細小血管的存在,并且可以保持分割血管的連通性。綜上,MFEU-Net是一種具有較強的魯棒性和準確性的視網膜血管分割算法。

        3 結語

        針對傳統的視網膜血管分割算法小血管分割不足和抗干擾性低的問題,本文提出了一種基于U-Net的多尺度特征增強視網膜血管分割算法(MFEU-Net),使用FIE-RM替換傳統的卷積塊,實現對血管特征信息的高效提??;同時,提出MDAC通過擴大感受野抽取血管的多尺度特征信息;最后,在跳躍連接處構建了MCE,融合不同層次的編碼信息消除背景噪聲的影響,實現了對細小血管的高精度分割。實驗結果表明,MFEU-Net在DRIVE和CHASE_DB1數據集上可以分割出平滑連續(xù)的血管形狀,保證血管的連續(xù)性和完整性,與先進算法進行對比實驗,MFEU-Net在視網膜血管分割方面具有更好的性能,可以有效地分割出細小血管,但對低對比度圖像的分割過程中仍存在血管分割斷裂和誤分割現象,今后將進一步提高算法的分割性能。

        [1] CHEN C, CHUAH J H, ALI R, et al. Retinal vessel segmentation using deep learning: a review[J]. IEEE Access, 2021, 9: 111985-112004.

        [2] YAN Z, YANG X, CHENG K T. A three-stage deep learning model for accurate retinal vessel segmentation[J]. IEEE Journal of Biomedical and Health Informatics, 2019, 23(4): 1427-1436.

        [3] SINAGA K P, YANG M S. Unsupervised k-means clustering algorithm[J]. IEEE Access, 2020, 8: 80716-80727.

        [4] HE Z, XIA K, LI T, et al. A constrained graph-based semi-supervised algorithm combined with particle cooperation and competition for hyperspectral image classification[J]. Remote Sensing, 2021, 13(2): No.193.

        [5] MCGUIRE B A, LOOMIS R A, BURKHARDT A M, et al. Detection of two interstellar polycyclic aromatic hydrocarbons via spectral matched filtering[J]. Science, 2021, 371(6535): 1265-1269.

        [6] CONTEJEAN A, LEPORRIER J, CANOU?E, et al. Comparing dynamics and determinants of severe acute respiratory syndrome coronavirus 2 transmissions among healthcare workers of adult and pediatric settings in central Paris[J]. Clinical Infectious Diseases, 2021, 72(2): 257-264.

        [7] GRAHAM S, EPSTEIN D, RAJPOOT N. Dense steerable filter CNNs for exploiting rotational symmetry in histology images[J]. IEEE Transactions on Medical Imaging, 2020, 39(12): 4124-4136.

        [8] JAINISH G R, JIJI G W, INFANT P A. A novel automatic retinal vessel extraction using maximum entropy based EM algorithm[J]. Multimedia Tools and Applications, 2020, 79(31/32): 22337-22353.

        [9] SIDDIQUE N, PAHEDING S, ELKIN C P, et al. U-net and its variants for medical image segmentation: a review of theory and applications[J]. IEEE Access, 2021, 9: 82031-82057.

        [10] WANG S, LI L, ZHUANG X. AttU-NET: attention U-Net for brain tumor segmentation[C]// Proceedings of the 2021 International MICCAI Brainlesion Workshop, LNCS 12963. Cham: Springer, 2022: 302-311.

        [11] MOU L, ZHAO Y, CHEN L, et al. CS-Net: channel and spatial attention network for curvilinear structure segmentation[C]// Proceedings of the 2019 International Conference on Medical Image Computing and Computer-Assisted Intervention, LNCS 11764. Cham: Springer, 2019: 721-730.

        [12] 路皓翔,劉振丙,郭棚躍,等. 多尺度卷積結合自適應雙區(qū)間均衡化的圖像增強[J]. 光子學報, 2020, 49(10):No.1010002.(LU H X, LIU Z B, GUO P Y, et al. Multi-scale convolution combined with adaptive bi-interval equalization for image enhancement[J]. Acta Photonica Sinica, 2020, 49(10): No.1010002.)

        [13] 吳正平,岑帥紅. 基于自適應gamma校正估計的圖像去霧算法[J]. 液晶與顯示, 2022, 37(1):106-115.(WU Z P, CEN S H. Image dehazing algorithm based on adaptive gamma correction estimation[J]. Chinese Journal of Liquid Crystals and Displays, 2022, 37(1):106-115.)

        [14] AlGHAMDI M, ABDEL-MOTTALEB M, COLLADO-MESA F. DU-Net: convolutional network for the detection of arterial calcifications in mammograms[J]. IEEE Transactions on Medical Imaging, 2020, 39(10): 3240-3249.

        [15] JIN Q, MENG Z, PHAM T D, et al. DUNet: a deformable network for retinal vessel segmentation[J]. Knowledge-Based Systems, 2019, 178: 149-162.

        [16] GU Z, CHENG J, FU H, et al. CE-Net: context encoder network for 2D medical image segmentation[J]. IEEE Transactions on Medical Imaging, 2019, 38(10): 2281-2292.

        [17] LI L, VERMA M, NAKASHIMA Y, et al. IterNet: retinal image segmentation utilizing structural redundancy in vessel networks[C]// Proceedings of the 2020 IEEE Winter Conference on Applications of Computer Vision. Piscataway: IEEE, 2020: 3645-3654.

        [18] GUO C, SZEMENYEI M, YI Y, et al. SA-UNet: spatial attention U-Net for retinal vessel segmentation[C]// Proceedings of the 25th International Conference on Pattern Recognition. Piscataway: IEEE, 2021: 1236-1242.

        [19] KAMRAN S A, HOSSAIN K F, TAVAKKOLI A, et al. RV-GAN: segmenting retinal vascular structure in fundus photographs using a novel multi-scale generative adversarial network[C]// Proceedings of the 2021 International Conference on Medical Image Computing and Computer-Assisted Intervention, LNCS 12908. Cham: Springer, 2021:34-44.

        [20] ALOM M Z, HASAN M, YAKOPCIC C, et al. Recurrent residual convolutional neural network based on U-Net (R2U-Net) for medical image segmentation[EB/OL]. (2018-05-29) [2022-07-13].https://arxiv.org/pdf/1802.06955.pdf.

        [21] SHIN S Y, LEE S, YUN I D, et al. Deep vessel segmentation by learning graphical connectivity[J]. Medical Image Analysis, 2019, 58: No.101556.

        Multi-scale feature enhanced retinal vessel segmentation algorithm based on U-Net

        ZHANG Zhiang1*, LIAO Guangzhong2

        (1,,430065,;2?(),430065,)

        Aiming at the shortcomings of traditional retinal vessel segmentation algorithm such as low accuracy of vessel segmentation and mis-segmentation of focal areas, a Multi-scale Feature Enhanced retinal vessel segmentation algorithm based on U-Net (MFEU-Net) was proposed. Firstly, in order to solve the vanishing gradient problem, an improved Feature Information Enhancement Residual Module (FIE-RM) was designed to replace the convolution block of U-Net. Secondly, in order to enlarge the receptive field and improve the extraction ability of vascular information features, a multi-scale dense atrous convolution module was introduced at the bottom of U-Net. Finally, in order to reduce the information loss in the process of encoding and decoding, a multi-scale channel enhancement module was constructed at the skip connection of U-Net. Experimental results on Digital Retinal Images for Vessel Extraction (DRIVE) and CHASE_DB1 datasets show that compared with CS-Net (Channel and Spatial attention Network), the suboptimal algorithm in retinal vessel segmentation, MFEU-Net has the F1 score improved by 0.35 and 1.55 percentage points respectively, and the Area Under Curve (AUC) improved by 0.34 and 1.50 percentage points respectively. It is verified that MFEU-Net can improve the accuracy and robustness of retinal vessel segmentation effectively.

        retinal vessel segmentation; U-Net; multi-scale information; dense atrous convolution; residual network; focal area

        This work is partially supported by Key Research and Development Program of Wuhan (2022012202015070).

        ZHANG Zhiang, born in 1999, M. S. candidate. His research interests include semantic segmentation, medical image processing.

        LIAO Guangzhong, born in 1969, M. S., associate professor. His research interests include internet of things, information safety.

        1001-9081(2023)10-3275-07

        10.11772/j.issn.1001-9081.2022091437

        2022?09?28;

        2022?11?28;

        武漢市重點研發(fā)計劃項目(2022012202015070)。

        張志昂(1999—),男,江蘇徐州人,碩士研究生,主要研究方向:語義分割、醫(yī)學圖像處理; 廖光忠(1969—),男,貴州貴陽人,副教授,碩士,CCF會員,主要研究方向:物聯網、信息安全。

        TP391

        A

        2022?12?13。

        猜你喜歡
        特征
        抓住特征巧觀察
        離散型隨機變量的分布列與數字特征
        具有兩個P’維非線性不可約特征標的非可解群
        月震特征及與地震的對比
        如何表達“特征”
        被k(2≤k≤16)整除的正整數的特征
        中等數學(2019年8期)2019-11-25 01:38:14
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        詈語的文化蘊含與現代特征
        新聞傳播(2018年11期)2018-08-29 08:15:24
        抓住特征巧觀察
        基于特征篩選的模型選擇
        亚洲精品国产精品乱码在线观看 | 久久久精品人妻无码专区不卡| 亚洲人成无码网www| 亚洲色欲色欲www成人网| av一区二区三区观看| 婷婷色综合视频在线观看| 欧美两根一起进3p做受视频| 波霸影院一区二区| 国产主播一区二区三区在线观看| 久久天天躁狠狠躁夜夜av浪潮| 乌克兰粉嫩xxx极品hd| 国产亚洲精品国产福利在线观看| 国内精品久久人妻互换| 不卡的高清av一区二区三区| 伊人久久大香线蕉av网禁呦| 久久亚洲国产中v天仙www| 丝袜美女美腿一区二区| 亚洲国产成人av二区| 久久精品国产69国产精品亚洲| 国产乱人伦AV在线麻豆A| 亚洲一级天堂作爱av| 久久99精品久久久久婷婷| 色婷婷综合中文久久一本| 国产美女a做受大片免费| 国产交换精品一区二区三区| 成人精品视频一区二区| 亚洲依依成人综合在线网址| 一区二区久久精品66国产精品| av影片在线免费观看| 日本黄页网站免费观看| 欧美日韩中文亚洲另类春色| 国产视频在线观看一区二区三区| 中文字幕亚洲综合久久菠萝蜜| 国产精品户露av在线户外直播| 国产高潮精品一区二区三区av| 国产主播一区二区三区蜜桃| 西西人体444www大胆无码视频| av深夜福利在线| 亚洲中文字幕一区精品| 成人精品视频一区二区| 日本视频中文字幕一区在线|