亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        改進的卷積神經(jīng)網(wǎng)絡(luò)在肺部圖像上的分割應用*

        2020-08-12 02:18:02錢寶鑫肖志勇
        計算機與生活 2020年8期
        關(guān)鍵詞:特征

        錢寶鑫,肖志勇,宋 威

        江南大學 人工智能與計算機學院,江蘇 無錫 214122

        1 引言

        據(jù)統(tǒng)計,目前中國肺癌的發(fā)病率正以每年26.9%的速度增長,到2025年,僅中國每年死于肺癌的人數(shù)就將接近100萬,肺部疾病已對居民的生命健康構(gòu)成巨大威脅[1]。研究表明,肺部疾病越早發(fā)現(xiàn)并及時接受治療可以有效降低肺癌患者的死亡率。CT成像技術(shù)是醫(yī)學影像技術(shù)中檢查肺部疾病的有效影像學手段,從肺部CT圖像中提取肺實質(zhì)可以幫助醫(yī)生診斷和評估肺部疾病。當前,將醫(yī)學圖像處理技術(shù)應用于肺部疾病輔助診斷,對于實現(xiàn)醫(yī)生更快、更準確地檢測患者肺部疾病具有重要意義。

        醫(yī)學圖像分割是指對醫(yī)學圖像中的器官和病灶(如腫瘤)進行提取。醫(yī)學圖像分割的本質(zhì)就是按照灰度、紋理等圖像特征,根據(jù)同一區(qū)域特征的相似性和鄰域特征的不同將感興趣區(qū)域分割出來,從而為臨床醫(yī)學提供可靠的信息。然而,由于肺部CT圖像組織結(jié)構(gòu)復雜,主要包括肺實質(zhì)和肺實質(zhì)以外的空氣、支氣管、水、骨骼、檢查床等部分,導致肺部CT圖像噪聲強,因而從CT圖像中提取肺實質(zhì)成為肺部疾病診斷研究的重要步驟。

        傳統(tǒng)的醫(yī)學圖像分割方法主要分為以下三種[2]。(1)手動分割方法,這種方法是由專家手動分割,主觀性強、容易出錯、耗時且不適合大規(guī)模的研究。(2)半自動分割方法,由于不同類型的CT圖像或不同的數(shù)據(jù)集具有不同的特征和參數(shù)閾值,很難對其進行統(tǒng)一推廣。(3)傳統(tǒng)的自動分割方法主要分為以下幾種:①基于閾值的分割[3],該方法設(shè)置閾值間隔,創(chuàng)建二進制分區(qū),此方法速度較快,但沒有考慮到圖像像素點的空間分布,容易對噪聲敏感,該方法對于灰度差異較小的圖像分割效果不好。②基于區(qū)域的分割[4],此類方法快速且在細微的衰減變化下分割效果很好,但是它們存在一些缺陷,對有病理的邊界分割效果較差。③基于聚類的分割[5],該方法將圖像中灰度值差異較小的像素點聚合在一起分為同一類,通過聚類將圖像劃分為不同的區(qū)域,但是由于聚類算法對初始點的賦值比較敏感,分割結(jié)果會根據(jù)初始化的不同有差異。

        如今,深度學習和卷積神經(jīng)網(wǎng)絡(luò)技術(shù)廣泛應用于圖像處理,并且在醫(yī)學圖像分割領(lǐng)域取得了很大的進展。Berkeley 團隊[6]提出全卷積網(wǎng)絡(luò)(fully con-volutional networks,F(xiàn)CN)方法用于圖像語義分割,將圖像級別的分類擴展到像素級別的分類,將卷積層代替分類網(wǎng)絡(luò)框架中的全連接層,取得了良好分割的效果,成為深度學習在語義分割應用中的開山之作。Ronneberger等人[7]提出的U-Net網(wǎng)絡(luò),利用編碼器與解碼器之間的級聯(lián)操作將圖像高層信息與淺層信息融合,有效地避免了高層語義信息的丟失,在醫(yī)學圖像分割方面取得了良好的效果。Milletari等人[8]提出的V-Net 是基于體素的全卷積神經(jīng)網(wǎng)絡(luò)在三維醫(yī)學圖像上的分割應用,在編碼的部分采用殘差網(wǎng)絡(luò)框架,在保證不斷加深網(wǎng)絡(luò)深度的同時,減少梯度消失或者梯度爆炸帶來的風險。Zhao 等人[9]提出的金字塔場景解析網(wǎng)絡(luò)(pyramid scene parsing network,PSPNet)是在FCN 算法的基礎(chǔ)上通過特征融合引入更多的上下文信息,通過聚合不同區(qū)域的上下文信息,從而提高獲取全局信息的能力。

        在上述討論的基礎(chǔ)上,提出了一種新的基于編/解碼模式的肺分割算法。受U-Net網(wǎng)絡(luò)框架的啟發(fā),編碼模塊采用一個結(jié)合多尺度輸入的殘差網(wǎng)絡(luò)為基礎(chǔ)層,很好地解決了深度神經(jīng)網(wǎng)絡(luò)的退化問題,通過給四個級聯(lián)分支注入多尺度的圖像來捕獲更廣泛和更深層次的語義特征。在編碼和解碼模塊之間,采用一個由空洞卷積驅(qū)動的空間金字塔池化代替?zhèn)鹘y(tǒng)U-Net網(wǎng)絡(luò)的池化層,通過使用不同膨脹系數(shù)的空洞卷積,從編碼模塊提取目標多尺度特征。最后是解碼模塊,在保留級聯(lián)操作的同時,利用注意力機制的控制單元加強有效信息的權(quán)重,從而提高分割精度。

        Fig.1 Flow diagram of experiment圖1 實驗流程圖

        本文的實驗流程圖如圖1 所示。首先對圖像進行預處理,接著將訓練樣本送入模型中訓練,得到最優(yōu)分割模型;再將測試樣本送到已經(jīng)訓練好的模型中測試,得出分割結(jié)果。本文提出的編/解碼模式的肺分割算法,輸入的是肺CT 掃描切片,輸出的是一個二值化圖像,模型通過識別每個像素是前景還是背景來預測顯示肺的位置,以真實標簽為金標準對測試結(jié)果進行評估,來判斷本文算法的性能。

        2 相關(guān)工作

        2.1 殘差網(wǎng)絡(luò)

        對于神經(jīng)網(wǎng)絡(luò)來說,網(wǎng)絡(luò)層數(shù)越深,所能學到的東西越多,但在某些情況下,網(wǎng)絡(luò)層數(shù)越深反而會降低準確率,很容易出現(xiàn)梯度消失和梯度爆炸。殘差網(wǎng)絡(luò)(residual network,ResNet)[10]可以很好地緩解這一問題。普通卷積每兩層增加一個捷徑,構(gòu)成一個殘差塊(residual block),多個殘差塊連接在一起構(gòu)成一個殘差網(wǎng)絡(luò),殘差塊如圖2所示。

        Fig.2 Residual block圖2 殘差塊

        圖2 中,x表示輸入,F(xiàn)(x)表示殘差塊在第二層激活函數(shù)之前的輸出,即F(x)=W2σ(W1x),其中W1和W2分別表示第一層和第二層的權(quán)重,σ表示ReLU激活函數(shù)[11]。最后殘差塊的結(jié)構(gòu)公式可定義如下:

        將單元輸入x與單元輸出F(x)相加,然后利用ReLU激活函數(shù)輸出。在前向傳播時,輸入數(shù)據(jù)可以從任意低層傳向高層,由于包含一個恒等映射(iden-tity mapping),一定程度上可以解決網(wǎng)絡(luò)退化問題。

        2.2 空洞卷積

        在卷積神經(jīng)網(wǎng)絡(luò)中,卷積核的尺寸越大,感受野也就越大,提取到的圖像特征也就越多,但是一味地增加卷積核的尺寸會使模型參數(shù)增多,這樣不利于模型的訓練??斩淳矸e(atrous convolution)[12]能夠在不犧牲特征空間分辨率的同時擴大特征感受野。普通二維的卷積和空洞卷積的對比如圖3所示。

        Fig.3 2D ordinary convolution and atrous convolution圖3 二維普通卷積和空洞卷積

        空洞卷積與普通卷積相比,就是在普通卷積核中加入膨脹系數(shù),對原圖像以膨脹系數(shù)(dilation rate)減1進行間隔采樣。對于一個膨脹系數(shù)為d,原始卷積核大小為K的空洞卷積,空洞卷積實際大小K′的公式定義如下:

        使用空洞卷積之后的卷積核尺寸變大,感受野也隨之增大??斩淳矸e不僅使感受野增大,獲取了圖像更多的特征信息,同時也不會造成模型參數(shù)增多,因此空洞卷積成為時下卷積神經(jīng)網(wǎng)絡(luò)中非常流行的卷積。

        3 本文算法原理

        3.1 網(wǎng)絡(luò)模型

        本文提出一種編/解碼模式的肺分割算法,此網(wǎng)絡(luò)結(jié)構(gòu)主要包括三部分:編碼模塊、空洞空間金字塔池化(atrous spatial pyramid pooling,ASPP)和解碼模塊。網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。

        編碼部分:醫(yī)學圖像中的器官切片尺度有著明顯的差異,為解決多尺度下的目標分割問題,獲得圖像的多尺度信息,在編碼模塊中,本文連續(xù)使用4 個平均池化(average pooling)對輸入圖像進行池化操作形成形似金字塔的多尺度圖像,在卷積深度增加時,利用級聯(lián)操作向4 個級聯(lián)分支分別注入多尺度的圖像。編碼模塊包括4組卷積和4次下采樣操作,與之對應的解碼部分也包括4 組卷積和4 次上采樣操作。為了在捕獲深層次語義信息的同時解決深度神經(jīng)網(wǎng)絡(luò)的退化問題,受V-Net 網(wǎng)絡(luò)框架的啟發(fā),編碼模塊每一層采用殘差塊為基礎(chǔ)層,每一個殘差塊都包含兩個3×3卷積操作,同時在每一層的卷積后面都加上批歸一化層(batch normalization,BN)[13],每層殘差塊包含兩組(3×3 conv+BN+ReLU)網(wǎng)絡(luò)結(jié)構(gòu)和一次跳躍連接,通過最大池化將特征映射輸出到下一層,與此同時,金字塔第二張圖像與上一層輸出特征映射級聯(lián),送入到第二個殘差塊。每個深度都具有多尺度特征,因此多尺度圖像可以集全局和局部的上下文信息,進一步增強不同深度語義信息的融合,以更好地利用U-Net的結(jié)構(gòu)。

        空洞空間金字塔池化:為獲得輸入特征映射的上下文多尺度信息,采用不同膨脹系數(shù)的空洞卷積獲取多尺度特征映射,此時特征映射的大小發(fā)生了變化,為解決輸入圖片大小不一致造成的問題,采用空間金字塔池化(spatial pyramid pooling,SPP)[14]拼接形成特征映射??斩纯臻g金字塔池化(ASPP)[15]將SPP和深度可分離卷積[16]結(jié)合起來,采用深度可分離卷積將輸入圖像的通道與空間信息分開處理。本文采用ASPP 替代傳統(tǒng)U-Net 網(wǎng)絡(luò)編碼的最后一層操作,ASPP網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。

        本文中,ASPP 要對上一層特征映射進行5 次卷積操作:第一次卷積,采用256 個普通的1×1 卷積核卷積特征映射,同時加入BN操作。為了在不增加參數(shù)規(guī)模的前提下,獲得多尺度的特征映射。第二次到第四次卷積操作時使用深度可分離卷積。每一個深度可分離卷積網(wǎng)絡(luò)結(jié)構(gòu)形式可表示為Depthconv(3×3)+BN+Pointconv(1×1)+BN+ReLU。為了增加感受野,其中Depthconv采用膨脹系數(shù)分別是6,12,18的3×3 空洞卷積;Pointconv 采用的是普通的1×1 卷積,此操作不僅可以有效減少模型參數(shù),同時也會加速模型收斂。不同采樣率的ASPP 能有效地捕捉多尺度信息,但是隨著采樣率的增加,濾波器的有效權(quán)重逐漸變小,這時的3×3卷積核已經(jīng)無法捕獲整個圖像上下文信息,而是退化為一個簡單的1×1卷積核。為了克服這一問題,在進行第五次卷積操作時,需要先將原圖大小降低為原來的1/16(此處16 為輸出步長),接著進行一個全局均值池化,將特征映射送入輸出通道數(shù)為256的1×1卷積核,再進行BN操作,最后利用雙線性插值(bilinear upsampling)對低維特征映射進行上采樣到原始大小。

        Fig.4 Structure of network圖4 網(wǎng)絡(luò)結(jié)構(gòu)

        Fig.5 Structure of ASPP network圖5 ASPP網(wǎng)絡(luò)結(jié)構(gòu)

        為了獲取特征映射之間的相關(guān)性,最后將提取到的5 個多尺度特征映射進行拼接;為了減少通道數(shù),將拼接好的特征映射送入通道數(shù)為512的1×1卷積核,再進行BN 操作,將得到的特征映射送入到解碼模塊中。

        Fig.6 Attention mechanism module圖6 注意力機制模塊

        解碼部分:神經(jīng)網(wǎng)絡(luò)在處理大量的輸入信息時,模型會變得復雜,利用注意力機制(attention mecha-nism)[17]選擇一些關(guān)鍵的信息加大權(quán)值分配,以此提高神經(jīng)網(wǎng)絡(luò)對目標區(qū)域的關(guān)注。在傳統(tǒng)的U-Net 網(wǎng)絡(luò)中,特征融合部分使用的是級聯(lián)操作,淺層特征的位置信息比較多,但是學到的特征沒有深層的高級,因此為獲得包含目標區(qū)域的有意義輸出,本文將注意力機制應用到處理肺部圖像分割的算法中,采用注意力機制的解碼模式。注意力機制模塊如圖6所示。

        圖6中,g為解碼部分矩陣,xl為編碼部分矩陣,Wg為門控信號,Wx為注意門。

        首先上采樣上一層的特征映射gi(Fg×Hg×Wg×Dg)進行1×1×1 卷積核運算得到下采樣同層的特征映射進行1×1×1 卷積核運算得到。將g上采樣的結(jié)果拼接到上文信息xl上,使用ReLU 作為激活函數(shù),經(jīng)過1×1×1 卷積核運算得到如下公式:

        其中,b代表偏置項;ψ代表1×1×1卷積核;σ1代表激活函數(shù)ReLU。

        最后利用Sigmoid激活函數(shù),經(jīng)過上采樣得到注意力系數(shù),注意力系數(shù)公式定義如下:

        其中,σ2代表Sigmoid 激活函數(shù),注意力系數(shù)α(取值范圍0~1)不斷將權(quán)重分配到目標區(qū)域,此時xl與注意力系數(shù)相乘,相乘結(jié)果會讓不相關(guān)的區(qū)域的值變小,目標區(qū)域的值變大,從而提高分割精度。

        3.2 損失函數(shù)

        本文分割模型是基于編/解碼模式的肺分割網(wǎng)絡(luò),需要訓練模型來預測每個像素是前景還是背景,這是一個像素級二分類問題。分類問題中最常見的損失函數(shù)是二分類交叉熵損失函數(shù)(binary cross en-tropy,BCE)。BCE損失函數(shù)定義如下:

        其中,gic∈{0,1}代表真實值(ground truth),pic∈{0,1}代表預測值(predicted value)。當gic與pic相等時,loss為0,否則loss為一個正數(shù),概率相差越大,loss值就越大。

        本文使用TL(Tversky loss)損失函數(shù)[18]來代替二分類交叉熵損失函數(shù)。相較于BCE、Tversky 相似度指數(shù),它允許靈活地平衡假陰性和假陽性。Tversky loss損失函數(shù)定義如下:

        其中,pic表示預測像素i屬于病變c類的概率;表示預測像素i屬于非病變類的概率;gic表示真實像素i屬于病變c類的概率;表示真實像素i屬于非病變類的概率。參數(shù)α和β分別控制假陰性和假陽性的比重,可以通過調(diào)參分給目標區(qū)域更多的權(quán)重以改善樣本不平衡的情況,提高召回率。在下一章中,還將比較、分析使用二分類交叉熵損失函數(shù)和Tversky loss損失函數(shù)對模型的影響。

        4 實驗結(jié)果與分析

        4.1 實驗數(shù)據(jù)集

        本文的數(shù)據(jù)集來自LUNA16 數(shù)據(jù)集(http://aca-demictorrents.com/collection/luna-lung-nodule-analysis-16---isbi-2016-challenge/)。LUNA16 數(shù)據(jù)集是最大公用肺結(jié)節(jié)數(shù)據(jù)集LIDC-IDRI的子集,LIDC-IDRI包括1 018個低劑量的肺部CT影像,LIDC-IDRI刪除了切片厚度大于3 mm和肺結(jié)節(jié)小于3 mm的CT影像,剩下的樣本構(gòu)成了LUNA16 數(shù)據(jù)集。LUNA16 包括888 個低劑量肺部CT 影像(mhd 格式)數(shù)據(jù),每個影像包含一系列胸腔的多個軸向切片。本文選取其中89 名患者,每個病人大約有100~750 張切片,最終形成13 465 張圖像數(shù)據(jù)集,獲得的圖像分辨率為512×512,其中70%的樣本用于訓練集,30%用于測試集。

        4.2 參數(shù)設(shè)置

        本文的實驗平臺為Keras,實驗的硬件環(huán)境為NVIDIA GTX1080Ti 單個GPU,Intel Corei7 處理器,軟件環(huán)境為Keras2.2.4。使用he_normal 方法對權(quán)重進行初始化,采用Tversky loss作為損失函數(shù),學習率設(shè)置為1E-4,采用Adam 優(yōu)化器更新參數(shù),訓練與測試的batchsize取4。

        4.3 評價指標

        評價指標旨在衡量所提方案的性能,本文采用最常用的醫(yī)學圖像分割評價指標對算法性能進行評估,包括敏感性(sensitivity,SE)、相似性系數(shù)(dice similarity coefficient,DSC)、準確性(accuracy,ACC)和Jaccard指數(shù)(Jac)。各項評價指標定義如下:

        其中,TP(true positive)表示真陽性,它表示人工分割和算法分割公共區(qū)域的像素個數(shù);FP(false positive)表示假陽性,它表示在算法分割區(qū)域內(nèi),在人工分割區(qū)域外的像素個數(shù);TN(true negative)表示真陰性,它表示人工分割和算法分割外部公共區(qū)域的像素個數(shù);FN(false negative)表示假陰性,它表示人工分割區(qū)域內(nèi),在算法分割區(qū)域外的像素個數(shù)。

        4.4 實驗結(jié)果

        4.4.1 樣本預處理對實驗結(jié)果的影響

        本文選用LUNA16 數(shù)據(jù)集的樣本,在進行三維切片后,需要先把不含目標區(qū)域的切片去除,由于原始CT 圖像存在噪聲,因此在CT 圖像輸入網(wǎng)絡(luò)前需要進行增強操作,以便加強前景與背景的區(qū)分度,對于標簽圖,需要將其二值化。處理之后的CT圖像和標簽圖像如圖7所示。

        Fig.7 Image comparison before and after preprocessing圖7 預處理前后圖像對比

        處理之后的圖像較原始圖像前景更加突出,干擾信息顯著減少,二值化的切片也去除了包含支氣管的像素,減少了無效區(qū)域的輸入。預處理前后結(jié)果對比如表1所示。

        Table 1 Comparison of segmentation results between preprocessed and unpreprocessed表1 預處理與未預處理的分割結(jié)果比較 %

        從實驗的結(jié)果來看,預處理的分割精度明顯高于未經(jīng)過預處理的分割精度。因此,在訓練模型時首先要對樣本進行合理的預處理。本文中預處理刪除了不包含目標區(qū)域的圖片,屬于背景像素的數(shù)量顯著減少,在一定程度上可以平衡正負樣本,提高實驗精度。

        4.4.2 不同loss對實驗結(jié)果的影響

        由于此次實驗選取的樣本體積相差較大,因此在做器官切片時,存在大量包含小目標的切片,單張圖像中目標像素占比較小,這樣會導致正負樣本數(shù)據(jù)不平衡,使網(wǎng)絡(luò)訓練較為困難。二分類交叉熵損失函數(shù)的一個局限性是它對假陽性(FP)和假陰性(FN)檢測的權(quán)重相等,因此交叉熵損失函數(shù)不是最優(yōu)的。為了證明使用Tversky loss作為損失函數(shù)能夠有效提升分割性能,本文在最優(yōu)網(wǎng)絡(luò)框架中分別使用Tversky loss和二分類交叉熵損失函數(shù)進行對比實驗。此處,假陰性檢測的權(quán)重需要高于假陽性,因此Tversky loss 中參數(shù)相對應的設(shè)置α=0.7,β=0.3。使用不同的損失函數(shù)對分割結(jié)果的影響如表2所示。

        Table 2 Comparison of segmentation results between different loss functions表2 不同損失函數(shù)的分割結(jié)果比較 %

        從實驗的結(jié)果來看,由于使用了Tversky loss 重新為假陰性和假陽性分配了權(quán)重,使目標區(qū)域的權(quán)值大于非目標區(qū)域的權(quán)值,此操作對敏感性指標(Se)產(chǎn)生了重要的影響,其他的評價指標也都高于使用二分類交叉熵損失函數(shù)的分割結(jié)果,說明采取Tversky loss作為損失函數(shù)的算法,可在不犧牲其他精度的情況下,有效提高敏感性指標,即召回率。

        4.4.3 消融實驗

        為了說明本文多種改進策略可以有效提高算法的分割性能,本文做了3組對比實驗來說明多尺度的圖像輸入、ASPP 和Attention 機制可以在不同程度上提高算法的分割性能。多種改進策略的分割算法比較如表3所示。

        Table 3 Comparison of segmentation algorithms of several improved strategies表3 多種改進策略的分割算法比較 %

        由表3 可以看出,加入ASPP 和Attention 機制的模型分割效果明顯優(yōu)于未加的模型,本文將ASPP運用到圖像分割網(wǎng)絡(luò),能夠有效減少連續(xù)下采樣帶來的信息損失,進一步強化分割效果。利用帶有注意力機制的級聯(lián)操作將高分辨率的局部特性與低分辨率的全局特性相結(jié)合,對產(chǎn)生的特征映射根據(jù)深層特征映射進行修正,從編碼器中獲取一些上文信息,加強目標區(qū)域的輸出,從而提高了分割性能。

        采用多尺度的圖像輸入的模型雖然比不上ASPP和Attention機制對分割效果做出的貢獻,但是與下文提及的算法相比,在一定程度上也強化了分割效果。

        4.4.4 與其他算法的比較

        為更好地驗證本文算法的性能,本文將提出的分割算法與傳統(tǒng)的主動輪廓模型[19]和經(jīng)典算法U-Net、V-Net進行比較,一些其他分割方法[20-22]也被納入到比較中。不同分割算法的比較如表4所示。

        從以上結(jié)果可以看出,本文算法在Dsc、Acc、Se和Jac的評估結(jié)果分別達到99.56%、99.33%、99.48%和98.74%,均優(yōu)于其他方法。這說明本文提出的分割模型有利于肺分割。為了更直觀地說明本文算法的準確性,本文隨機選取了5 個樣本A、B、C、D、E 在不同模型上的分割結(jié)果,如圖8所示。

        Table 4 Comparison of different segmentation algorithms表4 不同分割算法的比較 %

        樣本A 中原始CT 圖像肺實質(zhì)部分有些不清晰,無論是V-Net 還是Attn_U-Net,在像素模糊的部分分割效果都不是很好,本文算法的分割結(jié)果對比了圖8中標簽圖像,不存在過分割的問題。

        Fig.8 Segmentation results of different algorithms圖8 不同算法的分割結(jié)果圖

        對于樣本B 的分割,U-Net 和V-Net 在此樣本的邊緣處可以看到明顯的斑點,如圖8紅色虛線框選中部分所示;Attn_U-Net 對于此樣本的邊界,分割不夠圓滑,說明了加入ASPP的分割算法能夠有效減少連續(xù)下采樣帶來的信息損失,進一步強化分割效果。

        對于樣本C 的分割,相比較本文提出的算法,U-Net 存在欠分割,V-Net 存在過分割的情況,如圖8 紅色虛線框選中部分所示,分割出的肺實質(zhì)部分不夠連續(xù),存在一些空洞。

        對于樣本D的分割,傳統(tǒng)的U-Net算法分割效果很差,未有效區(qū)分支氣管和肺實質(zhì)的像素,V-Net 分割效果要優(yōu)于U-Net,說明加入了跳躍連接的分割模型在一定程度上可解決網(wǎng)絡(luò)退化問題,對比加了注意力機制的Attn_U-Net 算法,可知注意力機制能有效增強模型分割效果,更加關(guān)注目標區(qū)域的輸出。

        樣本E 中,由于左右肺距離比較接近,此樣本是最難分割的,相比較本文提出的算法,其他算法分割都出現(xiàn)左右肺粘連現(xiàn)象,如圖8綠色虛線框選中部分所示,而本文提出的算法能夠有效解決粘連問題,分割出左右肺,更加體現(xiàn)了本文算法的分割性能。

        為說明本文方法可以在不同的肺部圖像上進行很好的分割,在Kaggle Data Science Bowl 2017(DSB2017)數(shù)據(jù)集上進行了實驗(https://www.kaggle.com/c/data-science-bowl-2017)。DSB2017 是Lung Nodule Analysis在2017 年舉行的比賽。比賽所提供的數(shù)據(jù)集由534個二維樣本和各自的標簽圖像組成,用于肺分割。本文與采用同樣數(shù)據(jù)集的CE-Net 方法[23]進行了比較,由于樣本數(shù)量較少,本文進行了數(shù)據(jù)增強處理,實驗結(jié)果如表5所示。

        Table 5 Comparison of segmentation results between different methods表5 不同方法的分割結(jié)果比較 %

        從分割的結(jié)果來看,本文算法在DSB2017 數(shù)據(jù)集上也取得了比較好的分割效果,更加說明本文算法性能好,泛化能力強,可以推廣到分割不同的醫(yī)學圖像任務(wù)中。

        5 結(jié)束語

        本文提出了一種編/解碼模式的肺分割算法。一方面在編碼模塊采用多尺度融合的編碼方式,提高了模型對不同尺度特征的適應能力;另一方面采用ASPP,充分提取了上下文多尺度信息,最后通過注意力機制的級聯(lián)網(wǎng)絡(luò)結(jié)構(gòu),加強目標區(qū)域信息的捕捉,有效避免了在特征解碼上冗余信息的獲取。實驗結(jié)果表明,本文方法能有效分割肺實質(zhì)區(qū)域,與其他方法相比分割效果更好。除此以外,本文方法泛化性較強,可廣泛應用到不同的醫(yī)學圖像分割任務(wù)中。從肺部CT圖像中完整地分割出肺實質(zhì),對后續(xù)的肺結(jié)節(jié)檢測提供了良好的研究基礎(chǔ),下一階段的任務(wù)是根據(jù)這項工作的結(jié)果進行肺結(jié)節(jié)的檢測。

        猜你喜歡
        特征
        抓住特征巧觀察
        離散型隨機變量的分布列與數(shù)字特征
        具有兩個P’維非線性不可約特征標的非可解群
        月震特征及與地震的對比
        如何表達“特征”
        被k(2≤k≤16)整除的正整數(shù)的特征
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        詈語的文化蘊含與現(xiàn)代特征
        新聞傳播(2018年11期)2018-08-29 08:15:24
        抓住特征巧觀察
        基于特征篩選的模型選擇
        久久精品国产久精国产爱| 一级无码啪啪| 亚洲综合新区一区二区| 丰满人妻一区二区三区蜜桃| 色综合视频一区中文字幕| 国产高清无码在线| 国产在线拍91揄自揄视精品91| 久久精品女人av一区二区| 天堂新版在线资源| 国产午夜视频在永久在线观看| 精品少妇后入一区二区三区| 日本精品免费看99久久| 色欲av蜜桃一区二区三| 97无码人妻Va一区二区三区| 亚洲av午夜福利精品一区二区| 亚洲中文字幕乱码第一页| 国产成人精品a视频| a毛片全部免费播放| 国产精品成人久久一区二区| 日本一区二区三区人妻| 日日婷婷夜日日天干| 色综合久久中文综合久久激情| 久久蜜臀av一区三区| 大尺度免费观看av网站| 色一情一乱一伦一区二区三区日本| 久久久久久久妓女精品免费影院| 亚洲综合有码中文字幕| 18禁免费无码无遮挡不卡网站| 1000部夫妻午夜免费| 欧美黑人xxxx性高清版| 一本大道久久a久久综合精品| 中文字幕一精品亚洲无线一区| 豆国产95在线 | 亚洲| 亚洲精品日本久久久中文字幕| 日韩av一区二区网址| 性生交大全免费看| 久久久久久久国产精品电影| 无色码中文字幕一本久道久| 久久久av波多野一区二区| 欧美一欧美一区二三区性| 精品久久一区二区av|