亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于U-Net多尺度自校準(zhǔn)注意力視網(wǎng)膜分割算法

        2023-01-01 00:00:00梁禮明陳鑫周瓏頌余潔

        摘 要:針對(duì)視網(wǎng)膜細(xì)小血管分割精度低的問題,提出一種融合可伸縮級(jí)聯(lián)模塊、Transformer和自校準(zhǔn)注意力的改進(jìn)U-Net算法以提高細(xì)小血管分割精度。首先在編碼階段利用可伸縮級(jí)聯(lián)模塊,先行學(xué)習(xí)復(fù)雜多變的視網(wǎng)膜血管拓?fù)浣Y(jié)構(gòu)。然后在解碼階段提出一種自校準(zhǔn)注意力機(jī)制,利用多尺度擠壓激勵(lì)模塊,自適應(yīng)對(duì)特征圖通道和空間之間特征重要性進(jìn)行校準(zhǔn),增強(qiáng)目標(biāo)區(qū)域特征響應(yīng),抑制背景噪聲。最后使用Transformer特征提取塊,提高特征空間映射能力?;贒RIVE和CHASEDB1數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果表明,所提算法準(zhǔn)確率分別為96.49%和96.67%,靈敏度分別為83.75%和83.30%,特異性分別為98.28%和98.01%,AUC分別為0.987 1和0.987 2,所提算法的整體性能優(yōu)于現(xiàn)有算法,各模塊能夠有效提高細(xì)小血管分割能力。

        關(guān)鍵詞:視網(wǎng)膜分割;可伸縮級(jí)聯(lián)模塊;自校準(zhǔn)注意力;Transformer特征提??;多尺度擠壓激勵(lì)模塊

        中圖分類號(hào):TP391.41 文獻(xiàn)標(biāo)志碼:A

        文章編號(hào):1001-3695(2023)03-050-0943-06

        doi:10.19734/j.issn.1001-3695.2022.05.0317

        Based on U-Net multi-scale self-calibrating attention retinal segmentation algorithm

        Liang Liming,Chen Xin,Zhou Longsong,Yu Jie

        (School of Electrical Engineering amp; Automation,Jiangxi University of Science amp; Technology,Ganzhou Jiangxi 341000,China)

        Abstract:Aiming at the problem of the low accuracy of fine retinal vessel segmentation,this paper proposed improved U-Net methods combining scalable cascade modules,Transformer and self-calibrated attention modules to improve the accuracy of fine retinal vessel segmentation.Firstly,this paper used scalable cascaded modules in the encoding stage to enable the learning of complex and variable retinal vessel structures.Secondly,in the decoding stage,this paper proposed a self-calibration attention mechanism,which used the multi-scale compression excitation module to adaptively recalibrate the blood vessel from channel and spatial of features,it could enhance the feature response of the target area,and suppressed the background noise.Finally,the Transformer feature extraction block improved the capability of feature space mapping.This proposed method tested on public datasets,i.e.the DRIVE and CHASEDB1.The experimental results of proposed method show that the accuracy of the retinal vessel segmentation from the two datasets reach 96.49%/96.67%,the sensitivity reach 83.75%/83.30%,the specificity reach 98.28%/98.01% and the AUC reach 0.987 1/0.987 2,respectively.The performance of proposed method is better than most of existing methods,and each modules can improve the ability of fine retinal vessel segmentation.

        Key words:retinal vessel segmentation;retractable cascade module;self-calibrating attention;Transformer module;multi-scale squeeze-and-excitation

        0 引言

        隨著社會(huì)經(jīng)濟(jì)的發(fā)展,人們面對(duì)手機(jī)電腦等電子產(chǎn)品的時(shí)間日趨增多,伴隨患有青光眼、白內(nèi)障和動(dòng)脈硬化等疾病的人數(shù)也隨之增加。這些疾病早期不易發(fā)現(xiàn),晚期難以根治,嚴(yán)重可導(dǎo)致失明。在醫(yī)學(xué)臨床應(yīng)用中,醫(yī)生可以根據(jù)視網(wǎng)膜血管的直徑、長(zhǎng)度、分支模式和彎曲程度等形態(tài)學(xué)特征對(duì)這些疾病進(jìn)行診斷。然而,眼底視網(wǎng)膜血管結(jié)構(gòu)主要依靠專家手動(dòng)標(biāo)記,整個(gè)過程耗時(shí)耗力。所以,研究一種計(jì)算機(jī)自動(dòng)診斷和分割視網(wǎng)膜血管的算法,對(duì)于計(jì)算機(jī)輔助診斷各種眼科疾病具有重要的應(yīng)用價(jià)值。

        目前國(guó)內(nèi)外許多學(xué)者研究視網(wǎng)膜自動(dòng)分割算法,從廣義上來說,這些方法主要分為無監(jiān)督學(xué)習(xí)方法和有監(jiān)督學(xué)習(xí)方法兩類。無監(jiān)督學(xué)習(xí)方法不需要人工標(biāo)注的數(shù)據(jù)集進(jìn)行訓(xùn)練,而是利用視網(wǎng)膜固有特性,直接在眼底圖片上對(duì)視網(wǎng)膜血管進(jìn)行提取。常見的無監(jiān)督學(xué)習(xí)方法根據(jù)原理分為匹配濾波方法、數(shù)學(xué)形態(tài)學(xué)方法和血管跟蹤方法等。Shao等人[1]利用Frangi濾波器提取多尺度特征,然后利用聚類和后處理的方法進(jìn)行分割。Fan等人[2]利用大量邊界、凸包和骨架等區(qū)域形狀特性,將不確定區(qū)域的像素分為血管像素和背景像素。Wang等人[3]提出一種多尺度形態(tài)學(xué)和種子點(diǎn)跟蹤方法來增強(qiáng)并分割血管的方法。無監(jiān)督學(xué)習(xí)方法提取的特征粗糙,進(jìn)而導(dǎo)致血管分割精度低。

        監(jiān)督學(xué)習(xí)算法需要依賴人工標(biāo)記的數(shù)據(jù)集引導(dǎo)算法不斷提高其分割能力,具有較強(qiáng)的穩(wěn)定性和可靠性。隨著深度學(xué)習(xí)技術(shù)在計(jì)算機(jī)輔助醫(yī)療診斷的快速發(fā)展,基于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的視網(wǎng)膜血管分割成為研究熱點(diǎn),許多工作利用深度學(xué)習(xí)方法來完成血管分割任務(wù)。Jin等人[4]將可變形卷積和注意力機(jī)制相結(jié)合,提高了算法分割準(zhǔn)確率和抗噪能力。Zhuang等人[5]對(duì)R2U_Net進(jìn)行改進(jìn),利用改進(jìn)后的殘差模塊構(gòu)造多對(duì)編碼器—解碼器分支,并將每對(duì)編碼器和解碼器加入跳躍連接。Alom等人[6]提出基于U-Net遞歸殘差神經(jīng)網(wǎng)絡(luò),利用U-Net、殘差連接和RCNN等優(yōu)點(diǎn),提供更好的分割性能。曹飛道等人[7]提出一種殘差空洞密集模塊和三端注意力機(jī)制,利用注意力機(jī)制自適應(yīng)對(duì)空間特征進(jìn)行校正,改善網(wǎng)絡(luò)對(duì)細(xì)小血管的分割效果。姜大光等人[8]提出骨架圖引導(dǎo)的級(jí)聯(lián)血管分割網(wǎng)絡(luò),骨架提取的輔助任務(wù)用于提取血管中心線,極大保留了血管輪廓結(jié)構(gòu),改善血管的分割效果。

        上述工作為后續(xù)醫(yī)學(xué)視網(wǎng)膜血管分割技術(shù)的研究提供借鑒價(jià)值,但仍有許多問題需要解決。首先,血管的分割精度低,血管和病變等形狀多樣,可能存在血管特征和病變特征相似的情況,導(dǎo)致網(wǎng)絡(luò)出現(xiàn)將病變誤劃分為血管的問題,影響醫(yī)生的判斷。其次,分割性能的提升往往存在著模型參數(shù)和推理時(shí)間的增加等問題。

        針對(duì)上述問題,本文提出一種基于U-Net的多尺度自校準(zhǔn)注意力視網(wǎng)膜分割算法(multi-scale self-calibrated attention U-Net,MSSCA-U-Net),融合可伸縮級(jí)聯(lián)模塊、自校準(zhǔn)注意力模塊和Transformer特征提取塊來提升算法分割能力。一是將U-Net中傳統(tǒng)卷積替換成可伸縮級(jí)聯(lián)模塊,用來高效提取視網(wǎng)膜血管的多尺度特征信息。二是在跳躍連接處,使用自校準(zhǔn)注意力機(jī)制,對(duì)血管目標(biāo)區(qū)域進(jìn)行自適應(yīng)特征增強(qiáng)。三是在U-Net編碼器末端,添加Transformer特征提取塊,從全局感受野中進(jìn)一步提取血管特征,提高模型對(duì)血管的識(shí)別能力。

        1 本文算法

        1.1 可伸縮級(jí)聯(lián)模塊

        U-Net編碼解碼結(jié)構(gòu)中,往往需要通過編碼器和解碼器獲取豐富特征,來實(shí)現(xiàn)視網(wǎng)膜血管精確分割,但不同區(qū)域血管尺度不同,神經(jīng)網(wǎng)絡(luò)往往需要使用更大的卷積核增加感受野,進(jìn)而提取視網(wǎng)膜血管多尺度特征。但同時(shí)會(huì)增加網(wǎng)絡(luò)參數(shù)量,導(dǎo)致網(wǎng)絡(luò)難以收斂且推理時(shí)間大大增加。在傳統(tǒng)U-Net中,通常用傳統(tǒng)連續(xù)卷積來學(xué)習(xí)視網(wǎng)膜多尺度特征。但傳統(tǒng)連續(xù)卷積學(xué)習(xí)到語義信息往往不夠充分,且存在冗余特征,無法有效地對(duì)視網(wǎng)膜血管實(shí)現(xiàn)精確分割。為解決這個(gè)問題,受文獻(xiàn)[9]啟發(fā),本文設(shè)計(jì)可伸縮級(jí)聯(lián)模塊(scalable cascade modules,SCM),該模塊使用多個(gè)卷積高效提取和融合視網(wǎng)膜血管多尺度特征信息,從而提高血管分割精度。SCM結(jié)構(gòu)如圖1所示,SCM將特征提取過程分成k步,并且使用ConvXi來表示第i步的特征提取,第i步特征提取過程具體為

        xi=ConvXi(xi-1,wi)(1)

        其中:xi-1和xi分別表示第i-1步與第i步的輸出;ConvX包含一層卷積層、一層批歸一化層(BN)和一層激活函數(shù)層(ReLU);wi表示第i步卷積核的大小。在SCM中,本文進(jìn)行k步特征提取,第一步利用1×1卷積核來壓縮特征圖的通道數(shù),減少網(wǎng)絡(luò)參數(shù)量,從第二步到k-1步利用3×3卷積核對(duì)輸入特征圖進(jìn)行特征提取。每一步提取的特征通道數(shù)是前一步的二分之一,即假設(shè)SCM中最終提取特征拼接后通道數(shù)為M,則其中第i步提取特征通道數(shù)為M/2i,第k步同樣利用3×3卷積提取特征,但輸出特征圖數(shù)量與k-1步輸出特征圖數(shù)量是相同的。在視網(wǎng)膜分割任務(wù)中,低層特征需要使用足夠通道數(shù)來編碼細(xì)粒度信息,而大感受野關(guān)注對(duì)高層特征的歸納。如果設(shè)置與低層相同的通道數(shù)不僅會(huì)造成信息的冗余,還會(huì)造成網(wǎng)絡(luò)梯度消失,不可避免地造成網(wǎng)絡(luò)退化,網(wǎng)絡(luò)參數(shù)無法更新,阻礙網(wǎng)絡(luò)訓(xùn)練。其次,通過跳躍連接方法將x,x1,x2,…,xk特征圖進(jìn)行拼接操作以提高特征信息的利用率,即

        xoutput=F(x,x1,x2,…,xk)(2)

        其中:xoutput表示SCM模塊輸出;F表示的是拼接操作;x1,x2,…,xk表示是SCM各步輸出;x表示SCM模塊的輸入。

        最后,將xoutput輸出特征圖輸入到通道注意力機(jī)制SE模塊[10],SE結(jié)構(gòu)如圖2所示,通過SE模塊高效地自適應(yīng)給xoutput在通道維度上賦予不同注意力權(quán)重,為下級(jí)編碼解碼器的特征提取提供權(quán)重參考,避免重要通道信息的丟失。

        1.3 自校準(zhǔn)注意力模塊

        在傳統(tǒng)的U-Net中,將編碼器特征通過跳躍連接的方式傳遞到解碼器,實(shí)現(xiàn)底層特征與高級(jí)特征的融合,補(bǔ)充了解碼器細(xì)節(jié)特征。但由于視網(wǎng)膜形態(tài)復(fù)雜多樣,通過同尺度之間復(fù)制和剪切傳遞特征的方式過于簡(jiǎn)單,無法進(jìn)一步對(duì)視網(wǎng)膜復(fù)雜形態(tài)和分布進(jìn)行有效的預(yù)測(cè),所以在分割過程中容易出現(xiàn)細(xì)小血管斷裂等問題,造成真陽性低的問題。

        為了解決這個(gè)問題,受到文獻(xiàn)[12]啟發(fā),本文提出一種融合多尺度擠壓激勵(lì)的自校準(zhǔn)注意力模塊(self-calibrated attention model,SCAM),該模塊充分利用自身多尺度信息增強(qiáng)相關(guān)特征響應(yīng)。自校準(zhǔn)注意力模塊結(jié)構(gòu)如圖4所示,本文將輸入X均勻地分成X1、X2兩個(gè)部分,每個(gè)部分分別送到用于收集不同類型的上下文信息的特征提取路徑,在第一個(gè)路徑中,對(duì)X1執(zhí)行簡(jiǎn)單的卷積操作,其目的是保持原始的空間上下文信息,在第二條路徑中,對(duì)X2執(zhí)行自校準(zhǔn)操作,X2不同空間區(qū)域的通道重要性通過MSSE重新校準(zhǔn),然后將Y1和Y2串聯(lián)一起作為自校準(zhǔn)注意力模塊的最終輸出Y。

        本文提出的自校準(zhǔn)操作具有兩個(gè)方面的優(yōu)點(diǎn):a)與傳統(tǒng)注意力進(jìn)行比較,通過采用自校準(zhǔn)操作,每一個(gè)空間位置不僅被允許自適應(yīng)地考慮其周圍的上下文信息作為來自潛在空間的嵌入,并且可以對(duì)通道間相關(guān)性進(jìn)行建模;b)保留了一部分原始特征信息,豐富特征圖的空間信息。

        1.4 Transformer特征提取塊

        相關(guān)實(shí)驗(yàn)表明[13],如果充分利用網(wǎng)絡(luò)的長(zhǎng)期依賴關(guān)系,圖片分割效果可以得到明顯提升。卷積神經(jīng)網(wǎng)絡(luò)在提取低級(jí)特征和結(jié)構(gòu)方面具有較大的優(yōu)勢(shì),但其也存在局限性,限制其對(duì)遠(yuǎn)程依賴關(guān)系的學(xué)習(xí),無法學(xué)習(xí)到全局特征和遠(yuǎn)程的語義交互信息。與卷積神經(jīng)網(wǎng)絡(luò)不同,Transformer[13]具有強(qiáng)大全局信息建模的能力,但將其加入每個(gè)編碼解碼中,會(huì)增加網(wǎng)絡(luò)參數(shù),導(dǎo)致網(wǎng)絡(luò)訓(xùn)練速度和推理速度降低,同時(shí)網(wǎng)絡(luò)會(huì)出現(xiàn)過擬合現(xiàn)象,需要使用大量標(biāo)注數(shù)據(jù)集才能得到較好的訓(xùn)練結(jié)果。所以,本文將Transformer特征提取塊放置在U型網(wǎng)絡(luò)結(jié)構(gòu)中間部分,即編碼階段末端,代替原始卷積模塊,對(duì)視網(wǎng)膜血管全局信息進(jìn)行建模。

        由于Transformer針對(duì)自然語言處理,需要輸入序列長(zhǎng)度為N、詞向量維度為d的二維特征信息,但編碼階段提取到的特征通道數(shù)為256,特征圖H為8,W為8的三維特征信息,所以首先需要對(duì)輸入特征圖進(jìn)行線性變換,將特征圖的空間維度重塑成一維向量,得到序列長(zhǎng)度為N=64,詞向量維度為d=256的線性特征,將變換后的線性特征輸入到Transformer進(jìn)行特征提取。

        經(jīng)過Transformer變化后,得到特征序列向量L∈R (H×W)×2C,為了與后續(xù)解碼特征圖相匹配,需要對(duì)序列向量進(jìn)行重塑,變換成高度為8,寬度為8和通道數(shù)為512的特征圖。

        1.5 網(wǎng)絡(luò)總體結(jié)構(gòu)

        網(wǎng)絡(luò)總體框架如圖7所示。本文借鑒U-Net的編碼解碼架構(gòu),將輸入眼底視網(wǎng)膜圖片先經(jīng)過3×3卷積初步獲取32通道粗特征。在編碼路徑和解碼路徑中,利用可伸縮級(jí)聯(lián)模塊提取更多的血管形態(tài)特征和尺度變化信息,提升網(wǎng)絡(luò)對(duì)血管特征的識(shí)別能力和定位能力。同時(shí),為了減少空間特征信息丟失,本算法對(duì)輸入視網(wǎng)膜圖片進(jìn)行三次下采樣。在U-Net編碼器末端,引入Transformer特征提取塊,利用Transformer全局關(guān)注和長(zhǎng)遠(yuǎn)距離的建模能力,有利于對(duì)編碼器輸出特征作進(jìn)一步提取和融合,進(jìn)一步提高血管分割能力。在U型網(wǎng)絡(luò)跳躍連接處,利用自校準(zhǔn)注意力模塊來校準(zhǔn)編碼部分傳遞過來的特征圖不同區(qū)域的重要程度,增強(qiáng)血管區(qū)域特征響應(yīng),抑制非血管部分噪聲的特征響應(yīng),同時(shí),自校準(zhǔn)注意力模塊融合原始的響應(yīng)和注意力增強(qiáng)后的特征響應(yīng),實(shí)現(xiàn)細(xì)節(jié)信息保留和增強(qiáng),提高血管分割準(zhǔn)確率。最后利用一層1×1卷積核和softmax激活函數(shù),以獲取最后的分割結(jié)果。

        2 實(shí)驗(yàn)結(jié)果分析

        2.1 實(shí)驗(yàn)環(huán)境

        本文實(shí)驗(yàn)環(huán)境基于Ubuntu 16.04操作系統(tǒng),使用PyTorch 1.7.0端口進(jìn)行網(wǎng)絡(luò)訓(xùn)練,計(jì)算機(jī)配置CPU為AMD5600X,內(nèi)存32 GB,顯卡為NVIDIA GeForce GTX 3060ti,顯存為8 GB。CUDA版本為11.0,采用Adam優(yōu)化器,訓(xùn)練總輪次設(shè)置為50輪,初始學(xué)習(xí)率為1×10-3,學(xué)習(xí)率變化為每10輪降低0.1,batchsize設(shè)置為16,權(quán)重衰減設(shè)置為1×10-4,損失函數(shù)采用交叉熵?fù)p失函數(shù)。

        2.2 數(shù)據(jù)集

        DRIVE和CHASEDB1是國(guó)際上公開并廣泛使用的眼底視網(wǎng)膜數(shù)據(jù)集,DRIVE包含40張彩色眼底視網(wǎng)膜圖片,分辨率為565×584,且官方將其劃分為訓(xùn)練集和測(cè)試集,訓(xùn)練集和測(cè)試集各包含20張圖片。CHASEDB1包含14位兒童雙眼視網(wǎng)膜圖片,共有28張眼底圖片,分辨率為999×960。由于官方未將其劃分訓(xùn)練集和測(cè)試集,本文將該數(shù)據(jù)集的前20張用于訓(xùn)練,后8張用于測(cè)試。DRIVE和CHASEDB1均提供原始彩色眼底圖片、分割金標(biāo)準(zhǔn)和掩膜如圖8所示。為了有效檢驗(yàn)網(wǎng)絡(luò)的分割效果,本文根據(jù)官方提供的掩膜對(duì)視網(wǎng)膜分割效果進(jìn)行測(cè)評(píng)。

        2.3 預(yù)處理

        由于原始視網(wǎng)膜圖片的對(duì)比度較低,血管紋理不明顯,如果將圖片直接輸入網(wǎng)絡(luò)訓(xùn)練,不能得到較好的分割效果。為了提高網(wǎng)絡(luò)的分割性能,需要對(duì)原始圖片進(jìn)行一些預(yù)處理。本文對(duì)圖片進(jìn)行如下預(yù)處理:a)灰度轉(zhuǎn)換;b)圖像標(biāo)準(zhǔn)化;c)對(duì)比度受限自適應(yīng)直方圖均衡化;d)伽馬校正。由于官方提供的訓(xùn)練集較少,需要對(duì)圖片進(jìn)行數(shù)據(jù)增強(qiáng),避免模型出現(xiàn)過擬合的現(xiàn)象。本文使用64×64窗口隨機(jī)切分原始眼底圖片及其對(duì)應(yīng)的金標(biāo)準(zhǔn),并對(duì)切分好的視網(wǎng)膜圖片進(jìn)行隨機(jī)翻轉(zhuǎn),共切分出40 000張訓(xùn)練圖片。在測(cè)試階段,使用64×64滑動(dòng)窗口切分測(cè)試圖片,推理完成后將預(yù)測(cè)圖片拼接操作,得到最終分割結(jié)果。

        2.4 評(píng)估指標(biāo)

        為了定量分析模型的分割效果,本文采用準(zhǔn)確率(Acc)、特異性(Spe)、靈敏度(Sen)、F1-score和受試者工作特征曲線ROC下的面積(AUC)五個(gè)指標(biāo)作為本文的評(píng)價(jià)指標(biāo)。

        其中:TP表示正確分割中血管個(gè)數(shù);TN表示正確分割中背景個(gè)數(shù);FN表示將血管誤分成背景的像素個(gè)數(shù);FP表示將背景誤分割成血管的像素個(gè)數(shù);F1衡量算法分割結(jié)果與專家分割金標(biāo)準(zhǔn)的相似性。ROC曲線下的面積AUC越接近1,表示算法的性能越好,魯棒性越強(qiáng)。

        2.5 實(shí)驗(yàn)結(jié)果

        2.5.1 整體分割結(jié)果的比較

        為了展示本文算法優(yōu)越性,將其與其他算法在DRIVE和CHASEDB1數(shù)據(jù)集的上分割結(jié)果進(jìn)行比較,所有分割結(jié)果均在相同實(shí)驗(yàn)環(huán)境中得出,分割結(jié)果如圖9所示,圖(a)為原始眼底圖片;圖(b)為分割金標(biāo)準(zhǔn);圖(c)為本文算法分割結(jié)果;圖(d)~(f)分別為原始U-Net[14]、DenseUNet[15]和UNet++[16]分割結(jié)果。其中原始U-Net編碼解碼器使用傳統(tǒng)連續(xù)卷積,DenseUNet是將U-Net中傳統(tǒng)連續(xù)卷積替換成密集卷積模塊,UNet++則將多個(gè)U-Net進(jìn)行融合,并將每個(gè)U-Net提取結(jié)果進(jìn)行拼接操作。第一行和第三行分別給出DRIVE和CHASEDB1健康視網(wǎng)膜圖片及各網(wǎng)絡(luò)分割結(jié)果,第二行和第四行分別給出DRIVE和CHASEDB1病變視網(wǎng)膜圖片及各網(wǎng)絡(luò)分割結(jié)果。從第一行可以看出,由于視盤附近光照不均勻,圖(d)~(f)均出現(xiàn)主血管斷裂的現(xiàn)象,且末端血管出現(xiàn)分割不足問題。從第二行可以看出,圖(d)雖然在細(xì)小血管分割上有較好的表現(xiàn),但在視網(wǎng)膜邊界的地方,主血管出現(xiàn)斷裂問題,本文算法相比于圖(d)有效地解決邊界主血管斷裂和細(xì)小血管分割不足的問題。第三行和第四行視網(wǎng)膜由于受病變區(qū)域影響,圖(d)~(f)均存在欠分割和過分割的問題,本文算法利用可伸縮級(jí)聯(lián)模塊充分提取視網(wǎng)膜特征,能夠有效減少血管欠分割,利用自校準(zhǔn)注意力機(jī)制抑制背景噪聲的影響,減少誤分割,相比于其他算法可以很好地解決病理區(qū)域誤分割和細(xì)小血管分割不足的問題。

        2.5.2 細(xì)節(jié)對(duì)比圖

        圖10選取了DRIVE和CHASEDB1在本文算法、U-Net、DenseUNet和UNet++上的分割結(jié)果在視網(wǎng)膜邊界、視盤、血管末端和病變區(qū)域局部細(xì)節(jié)對(duì)比圖,可以更加清晰地觀察到本文對(duì)血管分割效果的提升,第一行和第三行為健康視網(wǎng)膜圖片,第二行和第四行為病變視網(wǎng)膜圖片。圖(b)為原始細(xì)節(jié)圖;圖(c)為分割金標(biāo)準(zhǔn);圖(d)為本文算法分割結(jié)果;圖(e)~(g)分別為U-Net、DenseUNet和UNet++分割結(jié)果。第一行中,視盤附近由于光照不均勻,圖(e)和(g)出現(xiàn)了主血管斷裂,圖(f)雖然在視盤附近主血管有著較好分割,但在血管末端,圖(f)出現(xiàn)了細(xì)小血管欠分割現(xiàn)象。在第二行中,由于病變區(qū)域分辨率較低,圖(f)和(g)出現(xiàn)不同程度的欠分割。在第三行中,在光照不均勻區(qū)域,圖(e)~(g)在微血管分割上均出現(xiàn)欠分割。從第四行中可以看出,由于受滲出物的影響,主血管出現(xiàn)斷裂,末端血管出現(xiàn)欠分割問題。圖(d)在邊界、視盤、血管末端和病變區(qū)域都有較好的分割結(jié)果,進(jìn)一步說明本文算法可有效完成視網(wǎng)膜分割任務(wù)。

        2.5.3 客觀數(shù)據(jù)比較

        表1給出了U-Net、DenseUNet、UNet++和本文算法在DRIVE和CHASEDB1客觀評(píng)價(jià)數(shù)據(jù)上的比較,其中加粗的為該指標(biāo)上最優(yōu)值。在DRIVE數(shù)據(jù)集上,本文算法在各項(xiàng)評(píng)價(jià)指標(biāo)上均達(dá)到最優(yōu),且在指標(biāo)F1、Acc和AUC(ROC)比U-Net高0.004 1、0.001 0和0.001 5。在CHASEDB1數(shù)據(jù)集上,本文算法在各評(píng)價(jià)指標(biāo)上均達(dá)到最優(yōu),且在指標(biāo)F1、Acc和AUC(ROC)比DenseUNet高0.012 1、0.001 6和0.002 3。說明本文算法與專家分割結(jié)果具有較高的相似度、更強(qiáng)識(shí)別血管能力和更強(qiáng)的魯棒性。

        2.5.4 ROC曲線與P-R曲線對(duì)比圖

        為了直觀比較本文算法的性能,圖11給出本文算法和其他算法在DRIVE和CHASEDB1上ROC和PR曲線對(duì)比圖。本文算法ROC曲線更靠近左上方,PR曲線更靠近右上方,本文算法繪制的ROC和PR曲線包圍其他算法繪制的ROC和PR曲線,說明本文算法的真陽性率高,假陰性率低,血管誤分類可能性較小,本文算法對(duì)視網(wǎng)膜血管分割能力優(yōu)于其他算法。

        2.5.5 與其他算法的比較

        為了進(jìn)一步驗(yàn)證本文算法的先進(jìn)性,將本文算法與其他算法對(duì)DRIVE和CHASEDB1數(shù)據(jù)集在靈敏度、特異性、準(zhǔn)確率和AUC四個(gè)指標(biāo)上進(jìn)行客觀數(shù)據(jù)對(duì)比,結(jié)果如表2所示(加粗字體為該項(xiàng)的最優(yōu)值)。在DRIVE數(shù)據(jù)集上,除了Spe外,Sen、Acc和AUC(ROC)均達(dá)到最優(yōu),文獻(xiàn)[22]利用小型U-Net進(jìn)行多次迭代校正生成血管分割圖,雖然其Spe高于本文算法,但若其前幾次迭代未提取到充分細(xì)小血管信息,則在之后迭代可能丟失細(xì)小血管特征信息,致使文獻(xiàn)[22]在Sen指標(biāo)上低于本文算法。

        在CHASEDB1數(shù)據(jù)集上,除了Sen和Spe外,其他指標(biāo)均達(dá)到最優(yōu)。文獻(xiàn)[21]提出一種由兩個(gè)U-Net構(gòu)成由粗到細(xì)的深度監(jiān)督網(wǎng)絡(luò),粗分割網(wǎng)絡(luò)學(xué)習(xí)輸入圖片的預(yù)測(cè)概率視網(wǎng)膜圖,而細(xì)分割網(wǎng)細(xì)化預(yù)測(cè)圖,并設(shè)計(jì)一種特征細(xì)化模塊,來減少參數(shù)量同時(shí)提高特征識(shí)別能力。但該網(wǎng)絡(luò)較深,造成細(xì)小血管的特征提取過程中丟失,最終得不到較好的分割效果,在CHASEDB1數(shù)據(jù)集上,Spe指標(biāo)雖然比本文算法高0.004 1,但文獻(xiàn)[21]的Sen和Acc分別低于本文算法0.038 2、0.002 1,說明該算法對(duì)于血管識(shí)別能力存在不足。文獻(xiàn)[26]基于殘差機(jī)制的多尺度注意力可變形M網(wǎng)絡(luò),并結(jié)合改進(jìn)脈沖耦合神經(jīng)網(wǎng)絡(luò),注意力機(jī)制和可變形卷積使網(wǎng)絡(luò)更加關(guān)注血管區(qū)域,在Sen指標(biāo)上高于本文算法,但在病變、噪聲的區(qū)域干擾情況下,可能導(dǎo)致網(wǎng)絡(luò)出現(xiàn)誤分割,導(dǎo)致文獻(xiàn)[26]在Spe指標(biāo)上低于本文算法,在Acc和AUC低于本文算法0.008 0和0.006 6。

        2.5.6 k的取值

        為了驗(yàn)證k取值的多少能盡可能提高本文的分割性能,對(duì)k取值2、3、4、5分別在DRIVE數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表3所示。從表中可以看出,當(dāng)k取4時(shí),Acc、F1和AUC分別達(dá)到0.964 9、0.854 2和0.987 1,可以得出較好的結(jié)果。

        2.5.7 算法改進(jìn)前后對(duì)比

        為了進(jìn)一步說明本文所提出SCM、SCAM和Transformer模塊有效提升U-Net對(duì)視網(wǎng)膜的分割性能,本文對(duì)U-Net的結(jié)構(gòu)進(jìn)行改進(jìn),并在DRIVE上進(jìn)行消融實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表4所示。表中,N1表示原始U-Net結(jié)構(gòu)分割結(jié)果,N2和N3分別表示在U-Net結(jié)構(gòu)上分別加上Transformer特征提取塊和SCAM模塊分割結(jié)果,N4表示將U-Net的傳統(tǒng)連續(xù)卷積替換成本文提出可伸縮級(jí)聯(lián)模塊SCM分割結(jié)果,N5和N6分別表示在N4的基礎(chǔ)上添加Transformer特征提取塊和SCAM。N7則是在U-Net結(jié)構(gòu)上加上SCM、SCAM和Transformer模塊,即本文所提出的算法。

        由表4可以看出,U-Net對(duì)視網(wǎng)膜的分割結(jié)果已經(jīng)達(dá)到較好的分割效果,其Acc、Sen、Spe和AUC分別達(dá)到了0.963 9、0.835 5、0.981 8和0.985 6,利用SCM代替?zhèn)鹘y(tǒng)連續(xù)卷積,Acc、Sen和AUC分別提升0.000 5、0.003 1和0.000 8,表明SCM提高網(wǎng)絡(luò)對(duì)視網(wǎng)膜中血管的提取能力,使得網(wǎng)絡(luò)的分割性能得到改善。將Transformer特征提取塊加入到N4中,Acc和Spe得到略微的提升,說明Transformer在更大感受野的情況下,進(jìn)一步提高網(wǎng)絡(luò)對(duì)微小血管的分割能力。將SCAM加入到N4中,雖然Acc略微減少,但Sen得到較大的提高,說明SCAM加強(qiáng)對(duì)細(xì)小血管特征的預(yù)測(cè)能力。綜上所述,SCM具有很強(qiáng)的特征提取能力,能夠改善細(xì)小血管特征提取不充分的問題,SCAM能夠更加關(guān)注血管相關(guān)特征,抑制背景噪聲的影響。本文所提出的模塊能有效提升U-Net對(duì)血管分割的能力。

        3 結(jié)束語

        針對(duì)眼底圖片視網(wǎng)膜細(xì)小血管分割不足的問題,本文提出一種多尺度自校準(zhǔn)注意力視網(wǎng)膜血管分割算法。首先,提出一種可伸縮級(jí)聯(lián)模塊來代替U-Net中傳統(tǒng)連續(xù)卷積,在學(xué)習(xí)血管特征的同時(shí),捕獲多分辨率血管特征模式。然后,在解碼階段,設(shè)計(jì)一種自校準(zhǔn)注意力模塊,一條路徑利用編碼器的自身特征自動(dòng)生成權(quán)重分配圖,能夠增強(qiáng)血管細(xì)節(jié)和抑制背景噪聲,提升網(wǎng)絡(luò)的分割性能;另一條路徑保留未經(jīng)注意力處理特征圖,豐富細(xì)節(jié)信息。最后,在U-Net中間部分,添加Transformer特征提取塊,利用Transformer具有全局特征提取功能,充分提取血管的特征信息。實(shí)驗(yàn)表明,本文算法優(yōu)于現(xiàn)有算法,能夠顯著提升U-Net分割性能,不僅可以對(duì)粗血管實(shí)現(xiàn)分割,而且對(duì)細(xì)小血管也有較好的分割效果。在下一步工作中,將繼續(xù)開發(fā)本文算法,將其應(yīng)用在更多的醫(yī)學(xué)圖像分割任務(wù)中。

        參考文獻(xiàn):

        [1]Shao Feng,Yang Yan,Jiang Qiuping,et al.Automated quality assessment of fundus images via analysis of illumination,naturalness and structure[J].IEEE Access,2018,6(3):806-817.

        [2]Fan Zhun,Lu Jiewei,Wei Caimin,et al.A hierarchical image matting model for blood vessel segmentation in fundus images[J].IEEE Trans on Image Processing,2019,28(5):2367-2377.

        [3]Wang Weihua,Zhang Jingzhong,Wu Wenyuan,et al.An automatic approach for retinal vessel segmentation by multi-scale morphology and seed point tracking[J].Journal of Medical Imaging and Health Informatics,2018,8(2):262-274.

        [4]Jin Qiangguo,Meng Zhaopeng,Pham TD,et al.DUNet:a deformable network for retinal vessel segmentation[J].Knowledge-Based Systems,2019,178(7):149-162.

        [5]Zhuang Juntang.LadderNet:multi-path networks based on U-Net for medical image segmentation[EB/OL].(2018)[2022-05-20].https://arxiv.org/abs/1810.07810.

        [6]Alom M Z,Yakopcic C,Taha T M,et al.Nuclei segmentation with recurrent residual convolutional neural networks based U-Net(R2U-Net)[C]//Proc of IEEE National Aerospace and Electronics Confe-rence.Piscataway,NJ:IEEE Press,2018:228-233.

        [7]曹飛道,趙懷慈.基于三端注意力機(jī)制的視網(wǎng)膜血管分割算法[J].控制與決策,2022,37(10):2505-2512.(Cao Feidao,Zhao Huaici.An improved U-Net based on three-terminal attention mechanism for retinal vessel segmentation[J].Control and Decision,2022,37(10):2505-2512.)

        [8]姜大光,李明鳴,陳羽中,等.骨架圖引導(dǎo)的級(jí)聯(lián)視網(wǎng)膜血管分割網(wǎng)絡(luò)[J].工程科學(xué)學(xué)報(bào),2021,43(9):1244-1252.(Jiang Daguang,LI Mingming,Chen Yuzhong,et al.Cascaded retinal vessel segmentation network guided by a skeleton map[J].Chinese Journal of Engineering,2021,43(9):1244-1252.)

        [9]Fan Mingyuan,Lai Shenqi,Huang Junshi,et al.Rethinking BiSeNet for real-time semantic segmentation[C]//Proc of IEEE/CVF Confe-rence on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2021:9711-9720.

        [10]Hu Jie,Shen Li,Albanie S,et al.Squeeze-and-excitation networks[EB/OL].(2017)[2022-05-20].https://arxiv.org/abs/1709.01507.

        [11]Pereira S,Pinto A,Amorim J,et al.Adaptive feature recombination and recalibration for semantic segmentation with fully convolutional networks[J].IEEE Trans on Medical Imaging,2019,38(12):2914-2925.

        [12]Liu Jiang Jiang,Hou Qibin,Cheng Ming Ming,et al.Improving convolutional networks with self-calibrated convolutions[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2020:10093-10102.

        [13]Chen Jieneng,Lu Yongyi,Yu Qihang,et al.TransUNet:transformers make strong encoders for medical image segmentation[EB/OL].(2021)[2022-05-20].https://arxiv.org/abs/2102.04306.

        [14]Ronneberger O,F(xiàn)ischer P,Brox T.U-Net:convolutional networks for biomedical image segmentation[C]//Proc of Conference on Medical Image Computing and Computer-Assisted Intervention.Berlin:Springer,2015:234-241.

        [15]Huang Gao,Liu Zhuang,Van Der Maaten L,et al.Densely connected convolutional networks[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2017:2261-2269.

        [16]Zhou Zongwei,Siddiquee M M R,Tajbakhsh N,et al.UNet++:redesigning skip connections to exploit multiscale features in image segmentation[J].IEEE Trans on Medical Imaging,2020,39(6):1856-1867.

        [17]Mo Juan,Zhang Lei.Multi-level deep supervised networks for retinal vessel segmentation[J].International Journal of Computer Assisted Radiology and Surgery,2017,12(12):2181-2193.

        [18]Yan Zengqiang,Yang Xin,Cheng K.Joint segment-level and pixel-wise losses for deep learning based retinal vessel segmentation[J].IEEE Trans on Biomedical Engineering,2018,65(9):1912-1923.

        [19]Guo Song,Wang Kai,Kang Hong,et al.BTS-DSN:deeply supervised neural network with short connections for retinal vessel segmentation[J].International Journal of Medical Informatics,2019,126(5):105-113.

        [20]Fu Qilong,Li Shuqiu,Wang Xin.MSCNN-AM:a multi-scale convolutional neural network with attention mechanisms for retinal vessel segmentation[J].IEEE Access,2020,8:163926-163936.

        [21]Wang Kun,Zhang Xiaohong,Huang Sheng,et al.CTF-Net:retinal vessel segmentation via deep coarse-to-fine supervision network[C]//Proc of the 17th IEEE International Symposium on Biomedical Imaging.Piscataway,NJ:IEEE Press,2020:1237-1241.

        [22]Li Liangzhi,Verma M,Nakashima Y,et al.IterNet:retinal image segmentation utilizing structural redundancy in vessel networks[C]//Proc of IEEE/CVF Winter Conference on Applications of Computer Vision.Piscataway,NJ:IEEE Press,2020:3656-3665.

        [23]Zhou Yukun,Chen Zailiang,Shen Hailan,et al.A refined equilibrium generative adversarial network for retinal vessel segmentation[J].Neurocomputing,2021,437(4):118-130.

        [24]Li Xiang,Jiang Yuchen,Li Mingle,et al.Lightweight attention convolutional neural network for retinal vessel image segmentation[J].IEEE Trans on Industrial Informatics,2021,17(3):1958-1967.

        [25]Yang Lei,Wang Huaixin,Zeng Qingshan,et al.A hybrid deep segmentation network for fundus vessels via deep-learning framework[J].Neurocomputing,2021,448(8):168-178.

        [26]Deng Xiangyu,Ye Jinhong.A retinal blood vessel segmentation based on improved D-MNet and pulse-coupled neural network[J].Biomedical Signal Processing and Control,2022,73(3):103467-103481.

        收稿日期:2022-05-25;修回日期:2022-07-08 基金項(xiàng)目:國(guó)家自然科學(xué)基金資助項(xiàng)目(51365017,61463018);江西省自然科學(xué)基金資助項(xiàng)目(20192BAB205084);江西省教育廳科學(xué)技術(shù)研究重點(diǎn)項(xiàng)目(GJJ170491)

        作者簡(jiǎn)介:梁禮明(1967-),男,江西吉安人,教授,碩導(dǎo),碩士,主要研究方向?yàn)獒t(yī)學(xué)圖像分析與機(jī)器學(xué)習(xí)(lianglm67@163.com);陳鑫(1995-),男,廣東揭東人,碩士,主要研究方向?yàn)獒t(yī)學(xué)圖像分析與機(jī)器視覺;周瓏頌(1996-),男,安徽銅陵人,碩士,主要研究方向?yàn)獒t(yī)學(xué)圖像分割;余潔(1997-),男,江西撫州人,碩士,主要研究方向?yàn)獒t(yī)學(xué)圖像處理.

        亚洲中文字幕高清视频| www国产亚洲精品久久网站| 久久香蕉免费国产天天看| 欧美亚洲尤物久久综合精品| av在线资源一区二区| 免费观看91色国产熟女| 97人人模人人爽人人喊电影 | 欧美激情肉欲高潮视频| 一本无码人妻在中文字幕免费| 伊人亚洲综合网色AV另类| 国产av一区二区三区狼人香蕉| 国产午夜激无码av毛片不卡| 熟女熟妇伦av网站| 国产亚洲精品成人无码精品网站| 最新国产成人自拍视频| 白白色白白色视频发布| 国产呦系列呦交| 久久中文字幕亚洲精品最新| 久久久国产熟女综合一区二区三区| 在线观看av片永久免费| 久久日本三级韩国三级| AV中文字幕在线视| 加勒比日韩视频在线观看 | 国产精品老熟女乱一区二区| 丁香美女社区| 国产曰批免费视频播放免费s| 中国少妇和黑人做爰视频| 日本熟妇另类一区二区三区| 亚洲综合国产一区二区三区| 欧美日韩国产亚洲一区二区三区| 邻居少妇张开腿让我爽视频| 欧美精品一区二区精品久久| a亚洲va欧美va国产综合| 四虎成人精品国产永久免费| 嫩呦国产一区二区三区av| 亚洲av高清在线一区二区三区| 亚洲中文av一区二区三区| 中文字幕精品人妻丝袜| 日本一二三区视频在线| 人妻丰满熟妇AV无码区HD| 91亚洲国产成人久久精品网站 |