亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        鬼影卷積自適應(yīng)視網(wǎng)膜血管分割算法

        2021-12-07 07:14:36梁禮明周瓏頌馮新剛
        光電工程 2021年10期
        關(guān)鍵詞:特征

        梁禮明,周瓏頌,陳 鑫,余 潔,馮新剛

        鬼影卷積自適應(yīng)視網(wǎng)膜血管分割算法

        梁禮明1,周瓏頌1,陳 鑫1,余 潔1,馮新剛2*

        1江西理工大學(xué)電氣工程與自動(dòng)化學(xué)院,江西 贛州 341000;2江西理工大學(xué)應(yīng)用科學(xué)學(xué)院,江西 贛州 341000

        針對(duì)視網(wǎng)膜血管分割存在主血管輪廓模糊、微細(xì)血管斷裂和視盤邊界誤分割等問題,提出一種鬼影卷積自適應(yīng)視網(wǎng)膜血管分割算法。算法一是用鬼影卷積替代神經(jīng)網(wǎng)絡(luò)中普通卷積,鬼影卷積生成豐富的血管特征圖,使目標(biāo)特征提取充分進(jìn)行。二是將生成的特征圖進(jìn)行自適應(yīng)融合并輸入至解碼層分類,自適應(yīng)融合能夠多尺度捕獲圖像信息和高質(zhì)量保存細(xì)節(jié)。三是在精確定位血管像素與解決圖像紋理損失過程中,構(gòu)建雙路徑注意力引導(dǎo)結(jié)構(gòu)將網(wǎng)絡(luò)底層特征圖與高層特征圖有效結(jié)合,提高血管分割準(zhǔn)確率。同時(shí)引入Cross-Dice Loss函數(shù)來抑制正負(fù)樣本不均問題,減少因血管像素占比少而引起的分割誤差,在DRIVE與STARE數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),其準(zhǔn)確率分別為96.56%和97.32%,敏感度分別為84.52%和83.12%,特異性分別為98.25%和98.96%,具有較好的分割效果。

        視網(wǎng)膜血管;鬼影卷積;自適應(yīng)融合模塊;雙路徑注意力引導(dǎo)結(jié)構(gòu)

        1 引 言

        視網(wǎng)膜血管形態(tài)結(jié)構(gòu)是反映人體健康的重要指標(biāo),其圖像的處理與分割對(duì)青光眼、心血管疾病和靜脈阻塞等多種疾病的早期發(fā)現(xiàn)和治療具有非常重要的意義[1]。然而,現(xiàn)實(shí)中視網(wǎng)膜血管分割面臨著眼球末端血管呈交織狀分布且輪廓模糊等難題。因此,迫切需要能夠自動(dòng)識(shí)別和自動(dòng)分割血管結(jié)構(gòu)的算法,去幫助醫(yī)療人員診斷眼底疾病。

        目前,視網(wǎng)膜血管分割算法主要分為無監(jiān)督和有監(jiān)督學(xué)習(xí)方法[2],其中無監(jiān)督學(xué)習(xí)方法主要關(guān)注眼底血管原始信息。She等[3]將Franqi濾波器和方向分?jǐn)?shù)相結(jié)合來提取視網(wǎng)膜血管,Hessian矩陣組成的Franqi濾波器可以提高線狀物體的平滑性,增強(qiáng)眼底血管與背景對(duì)比度。同時(shí)引入方向分?jǐn)?shù)去擴(kuò)展平面維度,使二維血管圖像映射到多維平面中以捕獲多尺度特征信息,改善微細(xì)血管末端交叉相連問題,但該算法并沒有很好解決視盤對(duì)于血管分割的影響。有監(jiān)督學(xué)習(xí)需要先驗(yàn)標(biāo)記信息,利用人工Label圖像對(duì)分類器進(jìn)行特征訓(xùn)練。Liang等[4]集成可變形卷積到傳統(tǒng)U型網(wǎng)絡(luò)中構(gòu)成ASU-Net,該算法根據(jù)血管形狀和尺度自適應(yīng)地調(diào)整感受野,以捕捉結(jié)構(gòu)復(fù)雜的視網(wǎng)膜血管,并通過低級(jí)特征圖與高級(jí)特征圖相聚合的方式,來實(shí)現(xiàn)微血管精確定位,但是需要引入大量卷積算子去學(xué)習(xí)可變形偏移量,使得訓(xùn)練和測(cè)試時(shí)間大幅度增加;Wang等[5]提出HA-Net視網(wǎng)膜血管分割網(wǎng)絡(luò),該網(wǎng)絡(luò)包含一層編碼器和三層解碼器,首先利用主解碼器生成粗略血管分割圖并自動(dòng)確定圖像中硬區(qū)域和軟區(qū)域,然后將軟硬區(qū)域分別輸進(jìn)對(duì)應(yīng)的輔助解碼器中進(jìn)行重新分割,算法存在過度分割現(xiàn)象,致使血管輪廓整體過粗和錯(cuò)誤生成假血管分支。

        雖然上述算法在分割領(lǐng)域有較好研究成果,但分割視網(wǎng)膜血管時(shí)仍存在缺陷,文獻(xiàn)[3]利用方向分?jǐn)?shù)擴(kuò)展維度,將二維圖像結(jié)構(gòu)映射到不同平面,會(huì)使眼底視盤區(qū)域、硬性滲出物和正常血管融合,進(jìn)而影響微細(xì)血管分割。文獻(xiàn)[4]引入可變形卷積復(fù)雜化網(wǎng)絡(luò)結(jié)構(gòu),帶來大量參數(shù)和提高訓(xùn)練時(shí)長(zhǎng),不利于算法實(shí)際應(yīng)用。文獻(xiàn)[5]多層解碼器并聯(lián)會(huì)使網(wǎng)絡(luò)出現(xiàn)過擬合情況,生成假血管分支。針對(duì)上述存在問題,本文提出一種鬼影卷積自適應(yīng)視網(wǎng)膜分割算法,先對(duì)彩色眼底圖片進(jìn)行RGB(Red、Green、Blue)三通道分離和限制對(duì)比度直方圖均衡化(CLAHE)處理,增強(qiáng)視網(wǎng)膜微細(xì)血管與視盤區(qū)域?qū)Ρ榷?,降低光照?qiáng)度和顏色通道對(duì)分割效果的影響。然后將眼底圖片輸入鬼影卷積自適應(yīng)網(wǎng)絡(luò)中進(jìn)行訓(xùn)練以提取血管特征,U型網(wǎng)絡(luò)編碼器和解碼器中普通卷積替換成鬼影卷積,鬼影卷積利用較小計(jì)算量生成豐富甚至冗余的特征圖,可以有效減少網(wǎng)絡(luò)參數(shù)和訓(xùn)練時(shí)長(zhǎng),快速提取出視網(wǎng)膜血管信息。為增加卷積層感受野,多尺度提取目標(biāo)特征,將自適應(yīng)融合模塊置于神經(jīng)網(wǎng)絡(luò)底端。同時(shí)利用雙路徑注意力引導(dǎo)結(jié)構(gòu)級(jí)聯(lián)編碼部分和解碼部分,解決池化層信息損失和實(shí)現(xiàn)語義全局傳遞,能夠更好地保留血管像素,分割出邊緣細(xì)節(jié)更加完整的圖片。

        2 網(wǎng)絡(luò)結(jié)構(gòu)

        2.1 鬼影模塊

        神經(jīng)網(wǎng)絡(luò)通過卷積層擴(kuò)展輸入特征圖數(shù)量,產(chǎn)生豐富甚至冗余的信息以保證視網(wǎng)膜血管特征充分提取,但冗余特征也帶來大量浮點(diǎn)運(yùn)算(floating point operations,F(xiàn)LOP)和參數(shù)(parameters),導(dǎo)致網(wǎng)絡(luò)訓(xùn)練時(shí)間過長(zhǎng)和占用內(nèi)存過大。眼底圖像經(jīng)過普通卷積輸出結(jié)果如圖1所示,圖中存在大量類似結(jié)構(gòu)像彼此幽靈一樣,利用這種相似特性本文采用鬼影卷積(ghost convolution)[6]生成冗余特征圖,該卷積利用廉價(jià)線性運(yùn)算替代部分卷積操作,可以有效地減少網(wǎng)絡(luò)參數(shù)和優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)。

        鬼影卷積層輸出個(gè)特征圖,步驟如下:

        鬼影卷積層能夠與普通卷積層一樣生成視網(wǎng)膜特征圖,因此可以輕松地替換普通卷積層嵌入神經(jīng)網(wǎng)絡(luò)架構(gòu)中降低計(jì)算成本。普通卷積核大小為,鬼影卷

        積核大小為,輸出個(gè)視網(wǎng)膜特征圖浮點(diǎn)運(yùn)算量之比為

        本文利用鬼影卷積層(ghost convolution layer)設(shè)計(jì)出鬼影模塊(ghost module)優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu),模塊結(jié)構(gòu)見圖3。Ghost module主要由三部分組成:第一部分?jǐn)U展鬼影卷積層,利用鬼影卷積層增加視網(wǎng)膜特征圖數(shù)量;第二部分SE注意力模塊[7],SE模塊可以動(dòng)態(tài)地抑制與血管任務(wù)不相關(guān)區(qū)域特征,提高網(wǎng)絡(luò)分割精度;第三部分壓縮鬼影卷積層,利用鬼影卷積層減少特征圖數(shù)量以匹配輸出所需。

        圖1 普通卷積層輸出結(jié)果

        圖 2 鬼影卷積層

        圖3 鬼影模塊

        圖4 自適應(yīng)融合模塊

        2.2 自適應(yīng)特征融合

        融合多尺度特征可以增強(qiáng)模型分割性能,在網(wǎng)絡(luò)底端引入空洞卷積可以使輸入特征圖在不連接池化層的情況下擴(kuò)大感受野,讓卷積后輸出擁有更多細(xì)節(jié)信息。本文基于非對(duì)稱擴(kuò)張卷積提出自適應(yīng)融合模塊(adaptive fusion module,AFM),該模塊由一對(duì)混合非對(duì)稱擴(kuò)張卷積(HADC)[8]和一個(gè)跳躍路徑(skip connection)[9]組成。自適應(yīng)融合主要思想是通過不同感受野分支捕獲不同尺度信息,從而達(dá)到多維特征提取,整體結(jié)構(gòu)如圖4(a)所示。

        混合非對(duì)稱擴(kuò)張卷積包含三個(gè)三向?qū)?three direction layer,TDL),各層空洞卷積率(rate)[10]依次擴(kuò)大,分別為1、2和3,變化的空洞卷積率組合可以保證在擴(kuò)大感受野同時(shí)減少區(qū)域像素丟失,如圖4(b)所示。其中三向?qū)又芯矸e以并行方式工作,在和軸上互補(bǔ)融合血管像素,如圖4(c)所示。TDL利用5×5空洞卷積探索全局信息,3×5空洞卷積補(bǔ)充橫向?qū)有畔ⅲ?×3空洞卷積補(bǔ)充縱向?qū)有畔?,多方向元素交叉融合可以保存高質(zhì)量細(xì)節(jié)。支路的跳躍連接由1×1卷積構(gòu)成,用于防止梯度爆炸和梯度消失(導(dǎo)數(shù)出現(xiàn)指數(shù)上升和下降)。獨(dú)特的分支結(jié)構(gòu)使得自適應(yīng)融合模塊能夠增加卷積層感受野,從而探索多維區(qū)域尺度特征和提取全局語義信息。該模塊將編碼部分信息進(jìn)行自適應(yīng)融合后輸入解碼部分預(yù)測(cè)分類,可以保留視網(wǎng)膜血管深層像素。

        2.3 注意力機(jī)制

        U-Net[11]原始上下采樣方式容易丟失底層特征,難以高精度預(yù)測(cè)出視網(wǎng)膜血管輪廓。因此增強(qiáng)眼底血管像素對(duì)于提高分割精度十分重要,注意力引導(dǎo)(AG)結(jié)構(gòu)通過跳躍式連接將低級(jí)特征圖(編碼層特征圖)與高級(jí)特征圖(解碼層特征圖)級(jí)聯(lián),增強(qiáng)眼底像素傳遞,改善血管細(xì)節(jié)模糊現(xiàn)象,結(jié)構(gòu)如圖5所示。h是高級(jí)特征圖,l是低級(jí)特征圖,低級(jí)和高級(jí)特征圖先用1×1卷積處理并相加,在用1×1卷積提取血管特征,ReLU激活函數(shù)防止梯度消失,Sigmoid函數(shù)獲取注意力系數(shù)?[0,1],注意力系數(shù)與高級(jí)特征圖h相乘確定其權(quán)重,與目標(biāo)任務(wù)關(guān)系越緊密的圖像被保留的特征越多。

        單路徑注意力引導(dǎo)結(jié)構(gòu)可能會(huì)導(dǎo)致空間圖像產(chǎn)生噪聲,影響模型分割的魯棒性,因此本文將單路徑引導(dǎo)結(jié)構(gòu)改進(jìn)成雙路徑引導(dǎo)(dual-pathway attention guided,DAG)結(jié)構(gòu),結(jié)構(gòu)如圖6所示。雙路徑引導(dǎo)能夠產(chǎn)生二個(gè)注意力系數(shù),輸出1是確定權(quán)重的高級(jí)特征圖h,輸出2是確定權(quán)重的低級(jí)特征圖l,二者相加并用1×1卷積、批量歸一化(BN)和ReLU激活函數(shù)處理得到最終輸出,添加雙路徑引導(dǎo)結(jié)構(gòu)使得圖像邊緣更加清晰。

        圖5 注意力引導(dǎo)結(jié)構(gòu)

        圖6 雙路徑注意力引導(dǎo)結(jié)構(gòu)

        圖7 鬼影卷積自適應(yīng)網(wǎng)絡(luò)

        2.4 網(wǎng)絡(luò)結(jié)構(gòu)

        視網(wǎng)膜血管擁有復(fù)雜的形態(tài)結(jié)構(gòu)和多變的尺度信息,為確保算法可以融合全局信息,分割出更多微細(xì)血管數(shù)目,本文提出鬼影卷積自適應(yīng)視網(wǎng)膜血管分割算法,網(wǎng)絡(luò)整體結(jié)構(gòu)如圖7所示。鬼影卷積自適應(yīng)網(wǎng)絡(luò)(GANet)主體由圖像預(yù)處理(image preprocessing)、編碼器、解碼器和連接部分共同組成。原始眼底圖像尺度為565×584×3,預(yù)處理先將眼底圖片裁剪成64×64×1,再輸入到神經(jīng)網(wǎng)絡(luò)中進(jìn)行訓(xùn)練。網(wǎng)絡(luò)左半部為編碼器用于視網(wǎng)膜血管特征提取,由鬼影模塊(ghost module)和最大池化層(maxpooling)組成,對(duì)眼底圖像進(jìn)行空間維度收縮和通道擴(kuò)張,將尺度為64×64×1的眼底圖像變成4×4×512。網(wǎng)絡(luò)右半部為解碼器用于類別預(yù)測(cè),由上采樣(upsampling)和鬼影模塊組成,將4×4×512尺度圖像恢復(fù)為64×64×1。連接部分分為自適應(yīng)融合模塊(AFM)和雙路徑注意力引導(dǎo)結(jié)構(gòu)(DAG),其中自適應(yīng)融合模塊置于網(wǎng)絡(luò)下層,連接神經(jīng)網(wǎng)絡(luò)底端編碼器和解碼器,交叉融合血管像素,減少特征丟失和保存高質(zhì)量細(xì)節(jié)。雙路徑注意力引導(dǎo)結(jié)構(gòu)置于網(wǎng)絡(luò)上中層,級(jí)聯(lián)相應(yīng)解碼層和編碼層,結(jié)合低級(jí)特征圖和高級(jí)特征圖,降低池化層對(duì)信息的損害,提高血管像素定位精度。網(wǎng)絡(luò)末端是Sigmoid激活函數(shù),對(duì)血管和背景進(jìn)行分類得到64×64×1的分割結(jié)果圖,最后拼接(splicing)裁剪結(jié)果圖得到最終血管分割結(jié)果。此外,本文引入新型混合損失(Cross-Dice Loss)函數(shù)來抑制正負(fù)樣本不均問題,減少因血管像素占圖片整體像素比例較小而引起的分割誤差,從而得到更為優(yōu)異地分割結(jié)果。

        2.5 損失函數(shù)

        視網(wǎng)膜血管分割任務(wù)中常用交叉熵?fù)p失(Cross -entropy Loss)函數(shù)衡量模型預(yù)測(cè)的好壞,Cross-entropy Loss基于像素平均值預(yù)測(cè),面對(duì)血管像素占眼底圖像整體像素比例較小時(shí),會(huì)使預(yù)測(cè)偏向背景目標(biāo)。Dice-coefficient Loss可以引入權(quán)重來緩解類別間不平衡的影響,關(guān)注預(yù)測(cè)與事實(shí)之間重疊,但分割眼底圖像邊界時(shí)效果較差。將Dice-coefficient Loss和Cross-entropy Loss混合成一種新型損失(Cross-Dice Loss)函數(shù)用于本文算法評(píng)估,可以很好地適應(yīng)前景與背景像素比例不平衡的分割任務(wù),表現(xiàn)出預(yù)測(cè)結(jié)果與實(shí)際結(jié)果的區(qū)別,新?lián)p失函數(shù)定義為

        3 實(shí)驗(yàn)結(jié)果與分析

        3.1 數(shù)據(jù)集與圖像預(yù)處理

        本文采用公開數(shù)據(jù)庫中的DRIVE和STARE數(shù)據(jù)集作為實(shí)驗(yàn)數(shù)據(jù)集,DRIVE數(shù)據(jù)庫中包含40張彩色眼底圖片,官方已經(jīng)將數(shù)據(jù)集進(jìn)行手工分割且分為訓(xùn)練集和測(cè)試集。STARE數(shù)據(jù)庫中包含20張彩色眼底圖片,將數(shù)據(jù)集平均分成五份,采用五折交叉驗(yàn)證方式進(jìn)行實(shí)驗(yàn)。為獲取更好實(shí)驗(yàn)結(jié)果,需要對(duì)原始眼底圖像進(jìn)行預(yù)處理再輸入到模型中訓(xùn)練,預(yù)處理的步驟如下。

        圖8 預(yù)處理圖像。(a) 原圖;(b) 綠色通道圖;(c) CLAHE圖;(d) 伽馬變換圖

        1) 圖像擴(kuò)充:DRIVE和STARE數(shù)據(jù)集中包含圖片數(shù)量較少,采用沿軸18°旋轉(zhuǎn)采樣,將數(shù)據(jù)集擴(kuò)充20倍,以增加網(wǎng)絡(luò)訓(xùn)練樣本量。

        2) RGB(Red、Green、Blue)三通道處理:將眼底圖像分離成RGB三通道特征圖,發(fā)現(xiàn)綠色通道對(duì)比其他通道亮度適中、血管與背景對(duì)比度好,故選用綠色通道圖片作為預(yù)處理后續(xù)圖片。

        3) 限制對(duì)比度直方圖均衡化(CLAHE)處理:CLAHE處理在增強(qiáng)血管與背景對(duì)比度的同時(shí)不放大噪聲,使處理后的眼底圖片更加平滑。均衡化后采用伽馬變換對(duì)圖片較暗部分進(jìn)行亮度提升,增強(qiáng)圖片可視度,預(yù)處理如圖8所示。

        3.2 實(shí)驗(yàn)環(huán)境和參數(shù)設(shè)置

        實(shí)驗(yàn)電腦仿真平臺(tái)是PyCharm,實(shí)驗(yàn)環(huán)境是TensorFlow2.0開源框架,電腦配置為Intel?Core?i7-6700H CPU,16 GB內(nèi)存,Nvidia GeForce GTX 2070 GPU,64位Win10操作系統(tǒng)。

        采用Adam算法優(yōu)化Cross-Dice Loss函數(shù),加快目標(biāo)函數(shù)收斂速度,迭代次數(shù)設(shè)置為100,網(wǎng)絡(luò)初始學(xué)習(xí)率設(shè)置為0.0005,訓(xùn)練批量設(shè)置為16,訓(xùn)練集中20%樣本作為驗(yàn)證集。

        3.3 評(píng)價(jià)指標(biāo)

        本文用準(zhǔn)確度(accuracy,簡(jiǎn)寫為Acc,在式中寫為cc)、敏感度(sensitivity,簡(jiǎn)寫為Sen,在式中寫為en)、特異性(specificity,簡(jiǎn)寫為Spe,在式中寫為pe)和受試者工作特征曲線(ROC)下方的面積AUC這四個(gè)指標(biāo)來評(píng)估算法性能。其中,敏感度表示檢測(cè)血管像素?cái)?shù)量與真實(shí)血管像素?cái)?shù)量的比率;特異性表示檢測(cè)非血管像素的數(shù)量與真實(shí)非血管像素?cái)?shù)量的比率;準(zhǔn)確度表示準(zhǔn)確分類像素?cái)?shù)量與圖像中總像素?cái)?shù)量的比率。

        3.4 不同算法主觀性對(duì)比

        為驗(yàn)證鬼影卷積自適應(yīng)網(wǎng)絡(luò)(GANet)分割血管的有效性,選取文獻(xiàn)[11]中U型網(wǎng)絡(luò)(U-Net)、文獻(xiàn)[12]中密集卷積長(zhǎng)短期記憶網(wǎng)絡(luò)(BCDU-Net)、文獻(xiàn)[13]中雙層U型網(wǎng)絡(luò)(DoubleU-Net)和文獻(xiàn)[14]中蝶形全卷積神經(jīng)網(wǎng)絡(luò)(BFCN)與本文算法(GANet)進(jìn)行主觀性對(duì)比。編碼器和解碼器對(duì)稱連接,形似英文字母U的網(wǎng)絡(luò)稱為U型網(wǎng)絡(luò)(U-Net),編碼器用于壓縮圖片進(jìn)行特征提取,解碼器用于恢復(fù)圖片尺寸進(jìn)行分類預(yù)測(cè)。BCDU-Net是在U型網(wǎng)絡(luò)編碼層和解碼層中添加密集卷積塊,并用記憶神經(jīng)元級(jí)聯(lián)而成的網(wǎng)絡(luò)。DoubleU-Net由雙層U型網(wǎng)絡(luò)并聯(lián)組成,前層采用VGG-19預(yù)訓(xùn)練框架,后層類似U-Net結(jié)構(gòu),并聯(lián)框架可以多層次提取血管像素。BFCN編碼層由多尺度信息提取塊構(gòu)成,同時(shí)利用傳輸層串聯(lián)網(wǎng)絡(luò)整體結(jié)構(gòu),可以多尺度提取血管特征。普通卷積自適應(yīng)網(wǎng)絡(luò)(CANet)是將鬼影卷積還原成普通卷積,其余結(jié)構(gòu)與本文算法一致。將上述六種算法置于同一實(shí)驗(yàn)環(huán)境下進(jìn)行測(cè)試,不同算法對(duì)比結(jié)果見表1,其中最優(yōu)指標(biāo)加粗表示。

        表1可以看出,本文網(wǎng)絡(luò)GANet綜合性能比較好,網(wǎng)絡(luò)參數(shù)(parameters)為27400454,低于上述五種算法,僅為CANet的75.62%,證明鬼影卷積具有顯著降低網(wǎng)絡(luò)參數(shù)功能。同時(shí)單輪訓(xùn)練時(shí)長(zhǎng)分別為152 s、286 s、294 s、422 s、348 s和244 s。GANet訓(xùn)練時(shí)間雖高于U-Net少許,但低于其余四種網(wǎng)絡(luò),僅為CANet的70.11%。U-Net未添加任何模塊以最簡(jiǎn)單形式組成,使得訓(xùn)練最短,但本文算法其他指標(biāo)均高于U-Net,能更好地平衡時(shí)間與準(zhǔn)確率關(guān)系。

        表1 不同算法對(duì)比結(jié)果

        在DRIVE數(shù)據(jù)集上除特異性(Spe)指標(biāo)外,本文準(zhǔn)確度(Acc)、敏感度(Sen)和AUC值均為最高,分別為0.9656、0.8452和0.9869。DoubleU-Net由雙層U型網(wǎng)絡(luò)構(gòu)成,訓(xùn)練時(shí)可能出現(xiàn)過擬合現(xiàn)象,進(jìn)而生成假血管分支,使特異性值高于本文算法,但本文算法準(zhǔn)確度和敏感度更高,血管誤分割率更低。在STARE數(shù)據(jù)集上除AUC值比CANet低0.01%外其余指標(biāo)均高于上述五種算法,說明本文算法綜合性能優(yōu)于傳統(tǒng)算法。圖9展示不同算法視網(wǎng)膜血管分割結(jié)果,前三幅是DRIVE數(shù)據(jù)集圖片,后三幅是STARE數(shù)據(jù)集圖片,其中9(a)代表數(shù)據(jù)庫中原始彩色圖,9(b)代表醫(yī)學(xué)專家手工分割結(jié)果稱金標(biāo)準(zhǔn),9(c)~9(h)分別代表U-Net、BCDU-Net、DoubleU-Net、BFCN、CANet和GANet分割結(jié)果。在第一幅和第三幅圖片中,U-Net、BCDU-Net、DoubleU-Net和BFCN分割眼底視盤區(qū)域時(shí)不能有效地辨別視盤和血管輪廓,容易將視盤誤分割為血管,導(dǎo)致其周圍主血管鏈結(jié),而GANet能夠較好地識(shí)別視盤與血管,避免假血管生成。第二幅眼底圖片左下角存在病變現(xiàn)象,DoubleU-Net、BCDU-Net和CANet抑制病理信息能力較差,病變區(qū)域主血管模糊和缺失,而U-Net、BFCN和GANet在分割病變血管時(shí),能夠剔除病變斑點(diǎn),減少血管缺失程度。GANet可以捕獲更多微細(xì)血管數(shù)目,使末端細(xì)小血管與主干血管平滑連接,第四幅和第五幅圖片可以看出其他分割算法微細(xì)血管丟失情況嚴(yán)重,造成評(píng)價(jià)時(shí)靈敏度較低。第六幅圖片血管附近有明顯的硬性滲出物,滲出物容易引起交叉處血管錯(cuò)誤連接,同時(shí)掩蓋細(xì)小血管脈絡(luò)走勢(shì),使目標(biāo)區(qū)域產(chǎn)生偽影,GANet和CANet豐富的特征提取使得硬性交叉處血管也能平滑融合,減小無關(guān)斑點(diǎn)生成,而其他算法則有不同程度的偽影,其滲出物的識(shí)別證明本文算法及其變形算法的魯棒性更強(qiáng)。

        圖9 不同算法分割結(jié)果。(a) 原圖;(b) 金標(biāo)準(zhǔn);(c) U-Net圖;(d) BCDU-Net圖;(e) DoubleU-Net圖;(f) BFCN圖;(g) CANet圖;(h) GANet圖

        進(jìn)一步清晰展現(xiàn)分割結(jié)果,圖10和圖11給出DRIVE和STARE數(shù)據(jù)集分割細(xì)節(jié),并用顏色強(qiáng)化血管與背景像素,其中10(a)和11(a)代表灰色或彩色原圖,10(b)和11(b)代表金標(biāo)準(zhǔn)細(xì)節(jié)圖,10(c)~10(h)和11(c)~11(h)分別代表U-Net、BCDU-Net、DoubleU-Net、BFCN、CANet和GANet分割細(xì)節(jié)圖。圖10展示的是圖9中第三幅眼底圖像,由橙色和紅色圓圈可以看出本文算法能夠分割出更多微細(xì)血管,而其他算法在分割末端血管時(shí)效果欠缺。

        圖10 DRIVE數(shù)據(jù)集分割細(xì)節(jié)。(a) 原圖;(b) 金標(biāo)準(zhǔn)細(xì)節(jié)圖;(c) U-Net細(xì)節(jié)圖;(d) BCDU-Net細(xì)節(jié)圖;(e) DoubleU-Net細(xì)節(jié)圖;(f) BFCN細(xì)節(jié)圖;(g) CANet細(xì)節(jié)圖;(h) GANet細(xì)節(jié)圖

        圖11展示的是圖9中第六幅眼底圖像,由橙色和紅色圓圈可以看出本文算法能夠識(shí)別血管硬性滲出物,避免偽影生成。通過直觀細(xì)節(jié)對(duì)比,體現(xiàn)出本文算法能夠平滑地?cái)M合主干血管和微細(xì)血管,保證視網(wǎng)膜血管分割完整性和準(zhǔn)確性,實(shí)驗(yàn)對(duì)比細(xì)節(jié)圖說明鬼影卷積自適應(yīng)網(wǎng)絡(luò)對(duì)DRIVE和STARE中的眼底圖片具有較好的分割能力。

        圖11 STARE數(shù)據(jù)集分割細(xì)節(jié)。(a) 原圖;(b) 金標(biāo)準(zhǔn)細(xì)節(jié)圖;(c) U-Net細(xì)節(jié)圖;(d) BCDU-Net細(xì)節(jié)圖;(e) DoubleU-Net細(xì)節(jié)圖;(f) BFCN細(xì)節(jié)圖;(g) CANet細(xì)節(jié)圖;(h) GANet細(xì)節(jié)圖

        為更加直觀地顯現(xiàn)GANet優(yōu)越性,圖12和圖13給出DRIVE數(shù)據(jù)集上的受試者工作特征(ROC)曲線圖12(a)和精度召回率(PR)曲線圖13(a)走勢(shì)。ROC曲線以真陽性率(TPR)為縱坐標(biāo),假陽性率(FPR)為橫坐標(biāo),巧妙地以圖示方法揭示靈敏度和特異性關(guān)系。ROC圖中曲線越靠近左上角表明實(shí)驗(yàn)準(zhǔn)確性越高,假陽性率和假陰性率占比越低,由圖12放大圖12(b)看出本文算法GANet曲線走勢(shì)最靠近左上角,分類視網(wǎng)膜圖片像素時(shí)錯(cuò)誤分類為血管像素概率最低。

        圖12 受試者工作特征曲線

        圖13 精度召回率曲線

        PR曲線中P代表精準(zhǔn)率(Precision),R代表召回率(Recall),圖像蘊(yùn)含精準(zhǔn)率與召回率關(guān)系,每條PR曲線對(duì)應(yīng)一個(gè)閾值。PR曲線越靠近右上角表明正負(fù)樣本區(qū)分效果越好,由圖13放大圖13(b)可以看出本文算法GANet曲線走勢(shì)最靠近右上角,分類視網(wǎng)膜圖片像素時(shí)錯(cuò)誤分類為非血管像素概率最低。

        損失函數(shù)可以估量模型預(yù)測(cè)值與真實(shí)值不一致程度,圖14給出不同算法在STARE數(shù)據(jù)集上訓(xùn)練損失曲線和測(cè)試損失曲線走勢(shì)圖。

        3.5 不同算法客觀性對(duì)比

        本文算法與其他文獻(xiàn)方法進(jìn)行客觀性對(duì)比,不同算法客觀性對(duì)比結(jié)果見表2,其中最優(yōu)指標(biāo)加粗表示。本文算法在DRIVE和STARE數(shù)據(jù)集上評(píng)價(jià)指標(biāo):準(zhǔn)確率(Acc)為96.56%和97.32%,敏感度(Sen)為84.52%和83.12%,特異性(Spe)為98.25%和98.96%,AUC值為98.69%和99.00%。通過數(shù)據(jù)證明本文算法性能對(duì)比其他視網(wǎng)膜分割算法具有明顯優(yōu)勢(shì),實(shí)驗(yàn)對(duì)比結(jié)果說明鬼影卷積自適應(yīng)網(wǎng)絡(luò)(GANet)對(duì)DRIVE和STARE庫中視網(wǎng)膜圖片具有較好地分割能力。文獻(xiàn)[16]利用可變形卷積去代替普通卷積,并采用雙路徑注意力引導(dǎo)結(jié)構(gòu)級(jí)聯(lián)編碼器和解碼器,可變形卷積包含偏移量學(xué)習(xí),可以動(dòng)態(tài)地調(diào)整卷積核對(duì)目標(biāo)內(nèi)容進(jìn)行自適應(yīng)采樣,但二個(gè)數(shù)據(jù)集四項(xiàng)指標(biāo)均低于本文算法,其中精度比本文低0.99%和1.12%,敏感度比本文低5.62%和5.14%,特異性比本文低0.26%和0.74%,鬼影卷積提取視網(wǎng)膜血管能力強(qiáng)于可變形卷積。文獻(xiàn)[20]基于尺度空間逼近卷積神經(jīng)網(wǎng)絡(luò)對(duì)視網(wǎng)膜血管進(jìn)行分割,該網(wǎng)絡(luò)應(yīng)用上采樣多尺度結(jié)構(gòu)增加交換感受野,提高微薄結(jié)構(gòu)血管分割和邊界輪廓定位,同時(shí)引入剩余塊輔助網(wǎng)絡(luò)感受野變化,在STARE數(shù)據(jù)集中其精度和特異性均比本文低0.38%,敏感度和AUC值比本文高0.03%和0.05%,表明自適應(yīng)融合模塊和上采樣多尺度結(jié)構(gòu)對(duì)血管像素融合各有優(yōu)劣。文獻(xiàn)[22]提出實(shí)時(shí)模糊形態(tài)學(xué)視網(wǎng)膜血管分割算法,無監(jiān)督學(xué)習(xí)方法利用模糊集理論和模糊邏輯算子去處理不確定和信息缺失的血管,并用黑頂帽操作增強(qiáng)微血管區(qū)域像素,提高分割精度,在DRIVE數(shù)據(jù)集中該算法準(zhǔn)確率最高96.67%,比本文高0.11%,但是敏感度、特異性和AUC值均低于本文,敏感度低2.31%,特異性低0.08%,AUC值低0.16%,說明有監(jiān)督學(xué)習(xí)方法在分割血管輪廓時(shí)效果優(yōu)于無監(jiān)督學(xué)習(xí)方法。文獻(xiàn)[23]和文獻(xiàn)[24]采用交叉熵?fù)p失函數(shù)評(píng)估算法模型,在面對(duì)類別間不平衡時(shí),很難權(quán)衡敏感度和特異性。相比DRIVE數(shù)據(jù)集STARE數(shù)據(jù)集中眼底圖像尺寸更大,血管像素占圖片整體像素比例更小。文獻(xiàn)[23]利用金字塔思想,將圖像放大不同尺度再輸入網(wǎng)絡(luò)中訓(xùn)練,使特異性最高99.03%,但敏感度為75.51%。文獻(xiàn)[24]采用遷移學(xué)習(xí)預(yù)訓(xùn)練模型,并將學(xué)習(xí)的多級(jí)別多尺度特征融合以消除錯(cuò)誤分割,使敏感度最高89.79%,但特異性為97.01%。本文采用Cross-Dice Loss函數(shù)評(píng)估算法整體性能,可以很好地適應(yīng)前景與背景像素比例不平衡的分割任務(wù),權(quán)衡敏感度和特異性之間關(guān)系,算法敏感度和特異性分別為83.12%和98.96%,綜合分析不同算法,得出鬼影卷積自適應(yīng)網(wǎng)絡(luò)性能優(yōu)異。

        圖14 損失曲線

        表2 不同算法客觀性對(duì)比結(jié)果

        3.6 消融研究

        鬼影卷積自適應(yīng)網(wǎng)絡(luò)(GANet)生成豐富的視網(wǎng)膜特征圖,并自適應(yīng)融合血管特征,更好地保留血管像素,從而分割出邊緣細(xì)節(jié)更加完整的眼底圖片。為驗(yàn)證鬼影卷積自適應(yīng)網(wǎng)絡(luò)(GANet)各模塊有效性,本文在DRIVE和STARE數(shù)據(jù)集上進(jìn)行消融研究。GANet_1以普通卷積層為基礎(chǔ)加入自適應(yīng)融合模塊(AFM)和雙路徑引導(dǎo)結(jié)構(gòu)(DAG),GANet_2將普通卷積層替換成鬼影卷積模塊,并加入雙路徑引導(dǎo)結(jié)構(gòu)(DAG),GANet_3將普通卷積層替換成鬼影卷積模塊,并加入自適應(yīng)融合模塊(AFM),表3顯示消融實(shí)驗(yàn)結(jié)果。

        消融實(shí)驗(yàn)顯示本文算法各模塊具體作用,其中GANet_1和GANet區(qū)別在于是否加入鬼影卷積模塊,鬼影卷積模塊對(duì)比普通卷積層可以產(chǎn)生更豐富的特征圖,充分提取眼底信息,分割出更多微細(xì)血管,GANet_1和GANet準(zhǔn)確度分別為96.45%和96.56%,敏感度分別為83.74%和84.52%,明顯提高算法準(zhǔn)確度和敏感度。GANet_2在鬼影卷積模塊基礎(chǔ)上引入雙路徑引導(dǎo)結(jié)構(gòu),級(jí)聯(lián)編碼器和解碼器,解決池化層信息損失和實(shí)現(xiàn)語義全局傳遞,更好地保留血管像素,分割出邊緣細(xì)節(jié)更加完整的圖片,使敏感度達(dá)到最優(yōu)85.06%和83.36%。GANet_3在鬼影卷積模塊基礎(chǔ)上引入自適應(yīng)融合模塊,增加卷積層感受野,多尺度提取目標(biāo)特征,使特異性達(dá)到最優(yōu)98.51%和99.29%。本文算法在鬼影卷積基礎(chǔ)上加入了自適應(yīng)融合模塊和雙路徑引導(dǎo)結(jié)構(gòu),在提高算法準(zhǔn)確度的同時(shí)權(quán)衡敏感度和特異性。

        表3 各模塊消融研究

        4 結(jié) 論

        本文針對(duì)視網(wǎng)膜血管難以高精度分割,提出鬼影卷積自適應(yīng)視網(wǎng)膜血管分割算法。算法先對(duì)數(shù)據(jù)庫中圖片進(jìn)行預(yù)處理,增強(qiáng)眼底圖像可識(shí)別度。訓(xùn)練網(wǎng)絡(luò)編碼和解碼器中普通卷積被替換為鬼影卷積,利用鬼影卷積快速生成豐富特征圖的優(yōu)勢(shì),充分提取血管特征。編碼層捕獲信息經(jīng)過自適應(yīng)融合模塊后輸入解碼層中分類,自適應(yīng)模塊利用非對(duì)稱卷積核交叉融合血管像素,高質(zhì)量保存視網(wǎng)膜血管細(xì)節(jié)。為弱化池化層噪聲干擾,采用雙路徑注意力引導(dǎo)結(jié)構(gòu)級(jí)聯(lián)低級(jí)特征圖與高級(jí)特征圖,讓視網(wǎng)膜特征能夠全局傳遞。此外,本文引入新型混合損失(Cross-Dice Loss)函數(shù)來抑制正負(fù)樣本不均問題,減少因前景占比少而引起的分割誤差,得到優(yōu)異分割結(jié)果。實(shí)驗(yàn)結(jié)果表明,本文算法綜合性能優(yōu)于現(xiàn)有算法,其分割精度數(shù)值較高,對(duì)于眼科疾病診斷擁有一定應(yīng)用價(jià)值。雖然鬼影卷積能夠生成豐富的特征圖,但不能很好地確定每張圖片信息度,無法辨別出高質(zhì)量特征圖。未來將研究如何巧妙地融合可變形學(xué)習(xí)量,通過網(wǎng)絡(luò)學(xué)習(xí)自動(dòng)增加高維信息特征圖權(quán)重,提高視網(wǎng)膜血管分割精度。

        [1] Xu G Z, Wang Y W, Hu S,. Retinal vascular segmentation combined with PCNN and morphological matching enhancement[J]., 2019, 46(4): 180466.

        徐光柱, 王亞文, 胡松, 等. PCNN與形態(tài)匹配增強(qiáng)相結(jié)合的視網(wǎng)膜血管分割[J]. 光電工程, 2019, 46(4): 180466.

        [2] Liu X M, Cao J, Fu T Y,. Semi-supervised automatic segmentation of layer and fluid region in retinal optical coherence tomography images using adversarial learning[J]., 2018, 7: 3046–3061.

        [3] She L H, Guo Y R, Zhang S. Retinal vessel segmentation algorithm based on orientation scores and Frangi filter[J].(), 2020, 41(2): 182–187.

        佘黎煌, 郭一蓉, 張石. 基于方向分?jǐn)?shù)和Frangi濾波器的視網(wǎng)膜血管分割算法[J]. 東北大學(xué)學(xué)報(bào)(自然科學(xué)版), 2020, 41(2): 182–187.

        [4] Liang L M, Sheng X Q, Lan Z M,. U-shaped retinal vessel segmentation algorithm based on adaptive scale information[J]., 2019, 39(08): 126–140. 梁禮明, 盛校棋, 藍(lán)智敏, 等. 自適應(yīng)尺度信息的U型視網(wǎng)膜血管分割算法[J]. 光學(xué)學(xué)報(bào), 2019, 39(08): 126–140.

        [5] Wang D Y, Haytham A, Pottenburgh J,. Hard attention net for automatic retinal vessel segmentation[J]., 2020, 24(12): 3384–3396.

        [6] Han K, Wang Y H, Tian Q,. GhostNet: more features from cheap operations[C]//. 2020: 1577–1586.

        [7] Hu J, Shen L, Sun G. Squeeze-and-excitation networks[C]//. 2018: 7132–7141.

        [8] Zheng X W, Huan L X, Xia G S,. Parsing very high resolution urban scene images by learning deep ConvNets with edge-aware loss[J]., 2020, 170: 15–28.

        [9] Zhang S D, He F Z. DRCDN: learning deep residual convolutional dehazing networks[J]., 2020, 36(9): 1797–1808.

        [10] Wang Y J, Hu S Y, Wang G D,. Multi-scale dilated convolution of convolutional neural network for crowd counting[J]., 2020, 79(1–2): 1057–1073.

        [11] Ronneberger O, Fischer P, Brox T. U-Net: convolutional networks for biomedical image segmentation[C]//. 2015: 234–241.

        [12] Azad R, Asadi-Aghbolaghi M, Fathy M,. Bi-directional ConvLSTM U-Net with densley connected convolutions[C]//. 2019: 406–415.

        [13] Jha D, Riegler M A, Johansen D,. DoubleU-Net: a deep convolutional neural network for medical image segmentation[C]//(). 2020: 558–564.

        [14] Jiang Y, Wang F L, Gao J,. Efficient BFCN for automatic retinal vessel segmentation[J]., 2020, 2020: 6439407.

        [15] Yan Z Q, Yang X, Cheng K T. Joint segment-level and pixel-wise losses for deep learning based retinal vessel segmentation[J]., 2018, 65(9): 1912–1923.

        [16] Li H, Wang Y K, Wan C,. MAU-Net: a retinal vessels segmentation method[C]//(). 2020: 1958–1961.

        [17] Jin Q G, Meng Z P, Pham T D,. DUNet: a deformable network for retinal vessel segmentation[J]., 2019, 178: 149–162.

        [18] Li X, Jiang Y C, Li M L,. Lightweight attention convolutional neural network for retinal vessel image segmentation[J]., 2021, 17(3): 1958–1967.

        [19] Tang P, Liang Q K, Yan X T,. Multi-proportion channel ensemble model for retinal vessel segmentation[J]., 2019, 111: 103352.

        [20] Oliveira A, Pereira S, Silva C A. Retinal vessel segmentation based on fully convolutional neural networks[J]., 2018, 112: 229–242.

        [21] Wu Y C, Xia Y, Song Y,. NFN+: a novel network followed network for retinal vessel segmentation[J]., 2020, 126: 153–162.

        [22] Guo F, Li W Q, Kuang Z H,. MES-Net: a new network for retinal image segmentation[J]., 2021, 80(10): 14767–14788.

        [23] Tang Y, Rui Z Y, Yan C F,. ResWnet for retinal small vessel segmentation[J]., 2020, 8: 198265–198274.

        [24] Samuel P M, Veeramalai T. Multilevel and multiscale deep neural network for retinal blood vessel segmentation[J]., 2019, 11(7): 946.

        Ghost convolution adaptive retinal vessel segmentation algorithm

        Liang Liming1, Zhou Longsong1, Chen Xin1, Yu Jie1, Feng Xingang2*

        1School of Electrical Engineering and Automation, Jiangxi University of Science and Technology, Ganzhou, Jiangxi 341000, China;2School of Applied Sciences, Jiangxi University of Science and Technology, Ganzhou, Jiangxi 341000, China

        Ghost module

        Overview:Retinal vascular morphology is an important indicator of human health, and its image processing and segmentation are of great significance for the early detection and treatment of glaucoma, cardiovascular disease, and venous obstruction. At present, retinal vessel segmentation algorithms are mainly divided into unsupervised and supervised learning methods. Unsupervised learning method mainly focuses on the original information of fundus blood vessels and uses matching filtering, mathematical morphology and vascular tracking to segment fundus images. Supervised learning requires prior label information, and the classifier is trained and extracted by manually labeled Label image, and then the retinal vessels are segmented. However, the existing retinal vessel segmentation algorithm has some problems, such as blurred main vessel contour, micro-vessel fracture, and optic disc boundary missegmentation. To solve the above problems, a ghost convolution adaptive retinal vessel segmentation algorithm was proposed. First, color fundus images were separated by RGB (Red, Green, Blue) channels and Contrast Limited Adaptive Histogram Equalization to enhance the contrast between retinal blood vessels and background, and to reduce the influence of light intensity and color channel on the segmentation effect. Then the fundus images were input into the ghoul convolution adaptive network for training to extract the vascular features. The algorithm uses ghoul convolution to replace the common convolution in the neural network, and the ghoul convolution can generate rich vascular feature maps to fully extract the target features. The features are classified and predicted by the adaptive fusion module input into the decoding layer, and the adaptive fusion can capture the image information at multiple scales and preserve the vascular details with high quality. In the process of accurately locating vascular pixels and solving the loss of image texture, a dual-pathway attention guiding structure is constructed to effectively combine the feature maps at the bottom and the high level of the network, which solves the information loss at the pooling layer, achieves global semantic transmission, better retains vascular pixels, and makes the edge details of the segmented image more complete. At the same time, Cross-Dice Loss function is introduced to suppress the problem of uneven positive and negative samples and reduce the segmentation error caused by the small proportion of foreground. The experiment was carried out on DRIVE and STARE datasets. The DRIVE dataset contains 40 color fundus images, which were manually divided into training sets and test sets by the authorities. The STARE database contains 20 color fundus images, which were evenly divided into five parts, and the experiment was carried out in a 50% fold cross validation method. Experimental results: the accuracy rate was 96.56% and 97.32%, sensitivity was 84.52% and 83.12%, specificity was 98.25% and 98.96%, respectively. In the segmentation results, the main vessels were less broken and the microvessels were clear, which has certain medical clinical application value.

        Liang L M, Zhou L S, Chen X,Ghost convolution adaptive retinal vessel segmentation algorithm[J]., 2021, 48(10): 210291; DOI:10.12086/oee.2021.210291

        Ghost convolution adaptive retinal vessel segmentation algorithm

        Liang Liming1, Zhou Longsong1, Chen Xin1, Yu Jie1, Feng Xingang2*

        1School of Electrical Engineering and Automation, Jiangxi University of Science and Technology, Ganzhou, Jiangxi 341000, China;2School of Applied Sciences, Jiangxi University of Science and Technology, Ganzhou, Jiangxi 341000, China

        In order to solve the problems in retinal vessel segmentation, such as blurred main vessel profile, broken micro-vessels, and missegmented optic disc boundary, a ghost convolution adaptive retinal vessel segmentation algorithm is proposed. The first algorithm uses ghost convolution to replace the common convolution in neural network, and the ghost convolution generates rich vascular feature maps to make the target feature extraction fully carried out. Secondly, the generated feature images are adaptive fusion and input to the decoding layer for classification. Adaptive fusion can capture image information at multiple scales and save details with high quality. Thirdly, in the process of accurately locating vascular pixels and solving image texture loss, a dual-pathway attention guiding structure is constructed to effectively combine the feature map at the bottom and the feature map at the top of the network to improve the accuracy of vascular segmentation. At the same time, Cross-Dice Loss function was introduced to suppress the problem of uneven positive and negative samples and reduce the segmentation error caused by the small proportion of vascular pixels. Experiments were conducted on DRIVE and STARE datasets. The accuracy was 96.56% and 97.32%, the sensitivity was 84.52% and 83.12%, and the specificity was 98.25% and 98.96%, respectively, which proves the good segmentation effect.

        retinal vessels; ghost convolution; adaptive fusion module; dual-pathway attention guided structure

        National Natural Science Foundation of China (51365017, 61463018), General Project of Jiangxi Natural Science Foundation (20192BAB205084), and Key Project of Science and Technology Research of Jiangxi Provincial Department of Education (GJJ170491)

        10.12086/oee.2021.210291

        TP391

        A

        * E-mail: gzfxg1980@163.com

        梁禮明,周瓏頌,陳鑫,等. 鬼影卷積自適應(yīng)視網(wǎng)膜血管分割算法[J]. 光電工程,2021,48(10): 210291

        Liang L M, Zhou L S, Chen X, et al. Ghost convolution adaptive retinal vessel segmentation algorithm[J]. Opto-Electron Eng, 2021, 48(10): 210291

        2021-09-06;

        2021-10-02

        國家自然科學(xué)基金資助項(xiàng)目(51365017,61463018);江西省自然科學(xué)基金面上項(xiàng)目(20192BAB205084);江西省教育廳科學(xué)技術(shù)研究重點(diǎn)項(xiàng)目(GJJ170491)

        梁禮明(1967-),男,碩士,教授,主要從事醫(yī)學(xué)影像方面的研究。E-mail:9119890012@jxust.edu.cn

        馮新剛(1980-),男,碩士,講師,主要從事醫(yī)學(xué)影像方面的研究。E-mail:gzfxg1980@163.com

        版權(quán)所有?2021中國科學(xué)院光電技術(shù)研究所

        猜你喜歡
        特征
        抓住特征巧觀察
        離散型隨機(jī)變量的分布列與數(shù)字特征
        具有兩個(gè)P’維非線性不可約特征標(biāo)的非可解群
        月震特征及與地震的對(duì)比
        如何表達(dá)“特征”
        被k(2≤k≤16)整除的正整數(shù)的特征
        不忠誠的四個(gè)特征
        詈語的文化蘊(yùn)含與現(xiàn)代特征
        新聞傳播(2018年11期)2018-08-29 08:15:24
        抓住特征巧觀察
        基于特征篩選的模型選擇
        一本色综合久久| 国产在线视频国产永久视频| 国产精品欧美视频另类专区| 日本女同av在线播放| 99久久精品无码一区二区毛片| 国产美女自慰在线观看| 精品 无码 国产观看| 亚洲一区二区三区美女av| 日韩一区在线精品视频| 黑色丝袜秘书夹住巨龙摩擦| 国产欧美日韩综合在线一区二区| 男男互吃大丁视频网站| 国产免费一区二区三区在线观看| 最新露脸自拍视频在线观看| 国产高清一区二区三区视频| 亚洲日韩精品A∨片无码加勒比| 亚洲图文一区二区三区四区| 无码国产精成人午夜视频一区二区| 男人和女人做爽爽视频| 国产 国语对白 露脸| 亚洲中文字幕无码不卡电影| 中文字幕亚洲精品在线免费| 国产午夜福利在线观看红一片| 欧美成人免费高清视频| 富婆叫鸭一区二区三区| 亚洲一区毛片在线观看| 欧美成人片一区二区三区| 国产精品系列亚洲第一| 成人男性视频在线观看| 最新日本一道免费一区二区 | av熟妇一区二区三区| 久久精品国产亚洲av四虎| 午夜短无码| 在线看亚洲一区二区三区| 国产福利永久在线视频无毒不卡| 亚洲av之男人的天堂| 玩弄极品少妇被弄到高潮| 国产欧美高清在线观看| 色伦专区97中文字幕| 国产人妖xxxx做受视频| 日本视频在线观看二区|