亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于脈沖耦合神經(jīng)網(wǎng)絡(luò)結(jié)合U-Net 的眼底血管分割*

        2023-11-07 06:04:38梁玥瑩桑海峰
        微處理機(jī) 2023年5期
        關(guān)鍵詞:特征模型

        梁玥瑩,桑海峰

        (沈陽(yáng)工業(yè)大學(xué)信息科學(xué)與工程學(xué)院,沈陽(yáng) 110870)

        1 引 言

        視網(wǎng)膜的病理變化與許多人類疾病密切相關(guān)。臨床醫(yī)學(xué)研究表明,視網(wǎng)膜血管網(wǎng)絡(luò)的健康狀況,不僅能反映眼部健康,還可以用于部分全身性疾病的早期診斷。運(yùn)用視網(wǎng)膜血管分割技術(shù),有助于臨床工作人員更好解讀圖像信息。傳統(tǒng)的手工血管分割工作量巨大,并且需要臨床工作人員具有相當(dāng)豐富的實(shí)際操作經(jīng)驗(yàn)。因此,自動(dòng)化的眼底血管分割技術(shù)具有重要的研究及應(yīng)用價(jià)值。近年來(lái),各類算法不斷推陳出新,例如Ronneberger 等人[1]提出了用于細(xì)胞分割的U-Net 算法;杜新峰等人[2]提出了一種基于注意機(jī)制的金字塔場(chǎng)景解析U-Net 分割算法;Johnson 等人[3]則在深入研究Eckhorn 利用連接場(chǎng)模型(LFM)演示同步振蕩的方法后,對(duì)其進(jìn)行修改,以適應(yīng)數(shù)學(xué)表達(dá)式。此后,PCNN(Pulse-Coupled Neural Network)因上述生物特征,被稱為第三代神經(jīng)網(wǎng)絡(luò)。白培瑞等人[4]首次提出模糊連通性(CMFC)的特征矩陣,設(shè)計(jì)了FC-PCNN 模型的構(gòu)建方案;丁雪梅等人[5]提出一種PCNN 參數(shù)設(shè)置自動(dòng)尋優(yōu)法,利用自適應(yīng)分布式遺傳算法(ADGA),將尋優(yōu)得到的參數(shù)用于PCNN 血管分割;文獻(xiàn)[6]提出了一個(gè)簡(jiǎn)單的脈沖耦合神經(jīng)網(wǎng)絡(luò),可獲得血管的基本結(jié)構(gòu)。針對(duì)上述算法現(xiàn)存的問(wèn)題,在此提出一種改進(jìn)U-Net與改進(jìn)PCNN 相結(jié)合的視網(wǎng)膜血管分割算法,嘗試在保證分割準(zhǔn)確性的同時(shí)保留更多的微小血管。

        2 實(shí)驗(yàn)方法

        2.1 數(shù)據(jù)集選取

        選擇對(duì)DRIVE、STARE 數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)來(lái)驗(yàn)證改進(jìn)算法的網(wǎng)絡(luò)性能。DRIVE 包含40 幅圖片,分辨率為565×584 像素。STARE 有20 幅圖像,分辨率為605×700 像素。全部60 張眼底圖像中,每幅圖像都有2 個(gè)專家手動(dòng)標(biāo)簽。預(yù)處理階段已將數(shù)據(jù)集中的原有圖像采用隨機(jī)切片的方式來(lái)對(duì)數(shù)據(jù)進(jìn)行擴(kuò)增。

        2.2 網(wǎng)絡(luò)總體框架

        利用改進(jìn)后的U-Net 模型對(duì)分塊且初步增強(qiáng)的圖片進(jìn)行二次增強(qiáng)。其目的是多尺度提取血管特征。在U-Net 模型中采用Softpool 層、密集可變形卷積以及改進(jìn)的SE 模塊,用自適應(yīng)閾值SSPCNN 網(wǎng)絡(luò)進(jìn)行精準(zhǔn)的圖像分割,以保證保留更多血管中的微小細(xì)節(jié)??傮w網(wǎng)絡(luò)流程圖如圖1 所示。

        圖1 網(wǎng)絡(luò)總體流程

        2.3 圖像預(yù)處理

        針對(duì)醫(yī)學(xué)圖像大都存在對(duì)比度差、邊緣模糊等問(wèn)題,首先對(duì)眼底血管圖像進(jìn)行灰度變換、標(biāo)準(zhǔn)化、對(duì)比度受限的自適應(yīng)直方圖均衡化以及伽馬變換的操作以增強(qiáng)圖像對(duì)比度?,F(xiàn)有的醫(yī)學(xué)圖像數(shù)據(jù)集規(guī)模普遍較小,不利于提高模型的泛化能力,故采用隨機(jī)分塊的方式來(lái)對(duì)數(shù)據(jù)進(jìn)行擴(kuò)增。每一部分都是尺寸為48×48 的貼片,所有貼片都是通過(guò)在圖像內(nèi)隨機(jī)選擇其中心后分塊獲得的。

        2.4 網(wǎng)絡(luò)模型

        2.4.1 改進(jìn)U-Net 結(jié)構(gòu)

        原始的U-Net 模型存在獲取特征不全面、易丟失局部特征的問(wèn)題,因此為了多尺度、深層次提取血管特征,在U-Net 模型中采用Softpool 層、密集可變形卷積模塊以及改進(jìn)的SE 模塊以獲取更深層次的特征。改進(jìn)后的U-Net 網(wǎng)絡(luò)結(jié)構(gòu)如圖2 所示。

        圖2 改進(jìn)U-Net 網(wǎng)絡(luò)

        2.4.2 密集可變形卷積模塊

        普通的卷積運(yùn)算主要是用固定大小的感受野對(duì)輸入特征圖進(jìn)行采樣,然后對(duì)每個(gè)采樣點(diǎn)和對(duì)應(yīng)的卷積核進(jìn)行加權(quán)求和運(yùn)算。可變形卷積[7]運(yùn)算在普通卷積的基礎(chǔ)上增加了采樣點(diǎn)位置的偏移量,使變形卷積網(wǎng)絡(luò)能夠更靈活地捕捉特征圖的信息??勺冃尉矸e的計(jì)算公式如下式:

        上式中,m 和n 滿足0≤m+Δm<Ir+Mr-1,0≤n+Δn<Ic+Mc-1,由此提出密集可變形卷積模塊。它是一個(gè)三層結(jié)構(gòu)的卷積模塊,每層由不同的可變形卷積核構(gòu)成,通過(guò)結(jié)合不同尺度和不同復(fù)雜度的多分支結(jié)構(gòu)來(lái)豐富卷積塊的特征空間,從而增強(qiáng)卷積的表示能力。不同尺度的卷積核提取圖片的多角度特征信息,提升了網(wǎng)絡(luò)的多尺度提取特征的能力。密集可變形卷積模塊原理示意圖如圖3 所示。

        圖3 密集可變形卷積模塊

        2.4.3 改進(jìn)SE 模塊

        SE 模塊是一個(gè)輕量級(jí)門控機(jī)制。它可以通過(guò)對(duì)通道關(guān)系進(jìn)行建模來(lái)增強(qiáng)網(wǎng)絡(luò)的表示能力。在SE模塊中,輸入映射X ∈H ×W ×C 被變換(Ftr)為特征映射X∈H×W×C。在將X 饋送到下一個(gè)變換之前,它經(jīng)歷三個(gè)連續(xù)的步驟:擠壓、激勵(lì)和連接。通過(guò)全局平均池化將全局空間信息壓縮(Fsq)到信道描述符中,并且采用門控機(jī)制來(lái)解決利用信道依賴性的問(wèn)題,輸出計(jì)算公式如下式:

        SE 模塊容易陷入局部最優(yōu),忽略目標(biāo)的全局特征,導(dǎo)致在眼底血管分割任務(wù)中邊界分割不準(zhǔn)確。為此修改了SE 模塊的原始結(jié)構(gòu),在擠壓部分采用兩種不同的池化方式使特征提取更具有全局性。修改后的Fsq內(nèi)部結(jié)構(gòu)如圖4 所示。

        圖4 改進(jìn)擠壓模塊

        2.4.4 SoftPool 方法

        選擇SoftPool 作為本網(wǎng)絡(luò)模型的池化方法,在保證池化層功能的前提下,盡可能地減少池化過(guò)程中的信息損失,提升血管分割的精度。SoftPool 方法主要是基于SoftMax 方法的加權(quán)池化。首先,定義大小為C×H×W 的特征圖a 的局部區(qū)域R;然后,根據(jù)特征值非線性地計(jì)算區(qū)域R 的權(quán)重Wi;最后,通過(guò)加權(quán)區(qū)域R 內(nèi)的特征值得到輸出a。此過(guò)程可用以下公式來(lái)表示:

        2.5 自適應(yīng)SSPCNN 模型

        2.5.1 自適應(yīng)閾值的SSPCNN 模型

        SSPCNN 模型是在簡(jiǎn)化的脈沖耦合神經(jīng)網(wǎng)絡(luò)SPCNN(Simplified Pulse-Coupled Neural Network)模型上做進(jìn)一步的簡(jiǎn)化,去掉SPCNN 模型中的所有衰減系數(shù)而得到的。模型中單個(gè)脈沖耦合神經(jīng)元的行為如圖5 所示。SSPCNN 結(jié)構(gòu)的相應(yīng)數(shù)學(xué)公式如下各式所示:

        圖5 SSPCNN 網(wǎng)絡(luò)結(jié)構(gòu)

        迭代中位置(i,j)處的神經(jīng)元具有兩種輸入:主要與輸入圖像的位置(i,j)處的像素相關(guān)的饋送輸入Fij[n],以及通過(guò)權(quán)重矩陣Wijkl與目標(biāo)神經(jīng)元周圍的相鄰像素的輸出Ykl[n-1]建立關(guān)系的鏈接輸入Lij[n]。這兩個(gè)輸入通過(guò)連接強(qiáng)度β合并,以產(chǎn)生內(nèi)部活度Uij[n]。Uij[n]與Eij[n-1]進(jìn)行比較,產(chǎn)生輸出Yij[n]。如果Uij[n]>Eij[n-1],神經(jīng)元將被觸發(fā)(Yij[n]=1),動(dòng)態(tài)閾值Eij[n]將增加幅度VE。動(dòng)態(tài)閾值Eij[n]及連接強(qiáng)度β這兩個(gè)參數(shù)對(duì)于圖像分割的結(jié)果至關(guān)重要,故提出自適應(yīng)閾值的SSPCNN 網(wǎng)絡(luò)來(lái)確保分割的準(zhǔn)確性并提高模型的泛化能力。

        2.5.2 自適應(yīng)閾值分析

        對(duì)于SSPCNN,對(duì)應(yīng)于具有OMax強(qiáng)度的目標(biāo)像素的神經(jīng)元在時(shí)間t=T(OMax)的自然脈沖,其中,OMax是目標(biāo)像素的像素最大值;T(OMax)是閾值信號(hào)從其最大值θMax衰減到OMax所需的時(shí)間。在快速鏈接而導(dǎo)致的二次激發(fā)期間,令下式成立的對(duì)象神經(jīng)元將被捕獲:

        式中,Lij(T(OMax))是Nij從其8-鄰域接收的總鏈接輸入;Nij是對(duì)應(yīng)于像素(i,j)的神經(jīng)元;Xij是像素(i,j)的強(qiáng)度,該像素是Nij的饋送輸入。類似地,令下式不成立的所有背景神經(jīng)元也將被捕獲:

        若有一個(gè)β值,令式(10)對(duì)所有目標(biāo)神經(jīng)元都成立,而式(11)對(duì)所有背景神經(jīng)元都成立,那么只有目標(biāo)神經(jīng)元可以在T(OMax)處一起放電,從而導(dǎo)致輸入圖像的完美分割。當(dāng)不可能完美分割時(shí),則要盡可能捕獲最大數(shù)量的目標(biāo)神經(jīng)元和最小數(shù)量的背景神經(jīng)元。式(10)指定了β的下界β1,式(11)則指定了β的上界β2。β1的值隨著強(qiáng)度之比OMax/OMin的增大而增大;β2的值則隨著比值OMax/BMax的減小而減小,其中BMax指的是背景像素的像素最大值。如能有效降低β1和增加β2,即可提高分割精度,故可采取局部確定閾值的方法。

        2.5.3 自適應(yīng)閾值確定流程

        至此需要確定全局連接系數(shù)和初級(jí)點(diǎn)火閾值流程。首先將圖像粗略分割成目標(biāo)和背景的閾值T。閾值T 使用大津法獲得。使用強(qiáng)度大于T 的圖像像素近似對(duì)象像素的強(qiáng)度均值m0和標(biāo)準(zhǔn)差σ0。使用強(qiáng)度小于或等于T 的圖像像素來(lái)近似背景像素的強(qiáng)度均值mB和標(biāo)準(zhǔn)差σB。主激發(fā)閾值PFT 應(yīng)大于T,以防止明亮的噪聲背景像素在主激發(fā)期間激發(fā)。由此可得PFT 計(jì)算公式如下式:

        其中,k 是大于零的常數(shù)。通常,k 在[1,2]的范圍內(nèi)。計(jì)算鏈接系數(shù),使得以下不等式對(duì)于所有對(duì)象神經(jīng)元都成立:

        已知最小物體強(qiáng)度應(yīng)小于對(duì)象像素的強(qiáng)度均值m0,主激發(fā)閾值應(yīng)大于T,最小物體強(qiáng)度大致取(Tkσ0)。在目標(biāo)神經(jīng)元的8-鄰域中,期望目標(biāo)神經(jīng)元比背景神經(jīng)元多是合理的,假設(shè)單位鏈接,目標(biāo)神經(jīng)元的LI(t)的最小值可以取為5。至此,連接系數(shù)β的計(jì)算公式如下式:

        3 實(shí)驗(yàn)結(jié)果與分析

        3.1 性能評(píng)價(jià)指標(biāo)

        想要判斷血管分割的優(yōu)劣情況,需要有效的性能評(píng)價(jià)指標(biāo)。可以將圖像分割的結(jié)果與標(biāo)簽進(jìn)行比較,圖像中每個(gè)像素點(diǎn)的分類情況屬于下述四種情況之一:真陽(yáng)性(TP)、假陽(yáng)性(FP)、真陰性(TN)以及假陰性(FN)。通過(guò)像素點(diǎn)分類情況可以進(jìn)行靈敏度(Se)、特異性(Sp)和準(zhǔn)確度(Acc)這三個(gè)常用性能指標(biāo)的計(jì)算。計(jì)算方法如下:

        3.2 分割結(jié)果對(duì)比分析

        在DRIVE、STARE 兩個(gè)數(shù)據(jù)集上使用靈敏度、特異性、準(zhǔn)確率作為評(píng)價(jià)指標(biāo)。分割后得到各項(xiàng)數(shù)值如表1 所示。

        表1 分割結(jié)果對(duì)比分析

        在DRIVE 數(shù)據(jù)集上,與基準(zhǔn)方法相比,三種評(píng)價(jià)指標(biāo)都略有提升。其中靈敏度提升最高,說(shuō)明本算法能將大部分背景像素與目標(biāo)像素正確分類。在STARE 數(shù)據(jù)集上,雖然靈敏度數(shù)據(jù)較差,但是特異性、準(zhǔn)確度與基準(zhǔn)方法相比均有不同程度的提升。部分分割結(jié)果如圖6 所示。

        圖6 部分分割結(jié)果

        3.3 U-Net 與自適應(yīng)SSPCNN 結(jié)合

        U-Net 對(duì)眼底血管圖片進(jìn)行分割時(shí)會(huì)發(fā)生分割后的血管存在血管斷裂的情況,PCNN 網(wǎng)絡(luò)的耦合特性能夠很好地彌補(bǔ)這一問(wèn)題。故初步采用U-Net網(wǎng)絡(luò)對(duì)眼底血管圖片進(jìn)行圖像增強(qiáng)處理,之后再利用自適應(yīng)閾值SSPCNN 對(duì)血管進(jìn)行精確分割。采用這一處理的分割效果如圖7 所示。

        圖7 U-Net 與自適應(yīng)SSPCNN 結(jié)合使用的分割效果

        3.4 可變形卷積有效性分析

        傳統(tǒng)卷積核的最大問(wèn)題集中在適應(yīng)性差、血管分割細(xì)節(jié)丟失等方面。若使卷積核可以根據(jù)實(shí)際情況調(diào)整本身的形狀,便可更好地提取輸入特征。應(yīng)用可變形卷積后,相比于原始模型,在三個(gè)評(píng)估指標(biāo)上都有不同程度的提升,詳細(xì)結(jié)果如表2 所示。

        表2 卷積與可變形卷積分割結(jié)果對(duì)比

        3.5 SE 模塊改進(jìn)的有效性分析

        傳統(tǒng)的SE 模塊對(duì)于眼底血管這種管狀物分割存在忽略部分特征的問(wèn)題,會(huì)對(duì)后續(xù)的分割結(jié)果造成不可逆轉(zhuǎn)的影響。相比于原始模塊,改進(jìn)后的模塊在三個(gè)評(píng)估指標(biāo)上都有不同程度的提升,詳細(xì)結(jié)果如表3 所示。

        表3 SE 與改進(jìn)SE 分割結(jié)果對(duì)比

        3.6 自適應(yīng)閾值SSPCNN

        原始的PCNN 網(wǎng)絡(luò)需要人工設(shè)置大量參數(shù),為分割工作造成了極大不便。經(jīng)過(guò)大量實(shí)驗(yàn)表明部分參數(shù)對(duì)分割結(jié)果影響并不大,故采用SSPCNN 模型進(jìn)行最終分割,同時(shí)使用自適應(yīng)閾值的方法。

        自適應(yīng)閾值SSPCNN 與硬閾值SSPCNN 的分割結(jié)果對(duì)比如表4 所示,由表中數(shù)據(jù)可見(jiàn)靈敏度有明顯的提升。

        表4 硬閾值與自適應(yīng)閾值分割結(jié)果對(duì)比

        4 結(jié) 束 語(yǔ)

        本設(shè)計(jì)應(yīng)用密集可變形卷積模塊、改進(jìn)的SE模塊及SoftPool 的U-Net 網(wǎng)絡(luò)對(duì)圖像進(jìn)行初步增強(qiáng),使其能夠統(tǒng)籌深層特征以及淺層特征,多尺度地提取眼底血管特征,使網(wǎng)絡(luò)更具有全局能力。新方法兼具準(zhǔn)確度與靈敏度,在相當(dāng)程度上解決了圖像處理中由于分割不充分而出現(xiàn)諸多問(wèn)題。初步研究取得良好效果,但在保證連接斷裂血管的前提下,部分圖片仍會(huì)出現(xiàn)噪點(diǎn)增多的情況,在靈敏度升高時(shí)特異性略有下降。如何在保證精確度的情況下提高特異性也將是后續(xù)進(jìn)一步研究的主要方向。

        猜你喜歡
        特征模型
        一半模型
        抓住特征巧觀察
        重要模型『一線三等角』
        新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        3D打印中的模型分割與打包
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        男女性杂交内射女bbwxz| 免费人人av看| 亚洲福利视频一区二区三区 | 国产伪娘人妖在线观看 | 日韩 无码 偷拍 中文字幕| 精品国模一区二区三区| 亚洲国产精华液网站w| 日韩无码无播放器视频| 放荡人妻一区二区三区| 国产激情视频在线观看大全| 精品欧洲av无码一区二区14| 久久国产成人精品国产成人亚洲| 超高清丝袜美腿视频在线| 蜜桃av人妻精品一区二区三区 | 亚洲精品成人av一区二区| 青青草99久久精品国产综合| 成av人大片免费看的网站| 国产精品久久久久精品一区二区 | 久久精品中文字幕大胸| 亚洲欧美在线播放| 丰满少妇一区二区三区专区| 最新国产熟女资源自拍 | 亚洲国产成人精品无码区在线播放| 纯爱无遮挡h肉动漫在线播放| 日韩女人毛片在线播放| 中文字幕成人精品久久不卡91| 精品亚洲国产成人蜜臀av| 夫妇交换刺激做爰视频| 免费大学生国产在线观看p| 一级黄片草逼免费视频| 亚洲成熟女人毛毛耸耸多| 人妻av无码系列一区二区三区| av天堂精品久久久久| 亚洲综合精品一区二区| 久久国产成人精品国产成人亚洲| 一卡二卡三卡视频| 国产高清亚洲精品视频| 亚洲成人中文字幕在线视频| 亚洲午夜精品久久久久久人妖| 日本a在线天堂| av在线播放免费网站|