亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)U-Net模型下的椎骨CT圖像分割方法

        2021-09-06 07:02:58劉俠余鴻波李冰王波
        關(guān)鍵詞:椎骨像素卷積

        劉俠 余鴻波 李冰 王波

        摘 要:針對經(jīng)典U-Net模型在椎骨CT分割過程中對圖像信息利用不充分而造成圖像邊緣分割不清的問題,采用一種基于改進(jìn)的U-Net模型的椎骨CT圖像分割算法。首先在經(jīng)典U-Net模型基礎(chǔ)上進(jìn)行了改進(jìn),其次利用改進(jìn)的U-Net模型分割出椎骨區(qū)域并得到粗分割結(jié)果,最后對粗分割結(jié)果利用圖割算法(Graph-Cut)加強(qiáng)邊緣約束,從而做到邊緣細(xì)化分割。分割方法整體分割精度可達(dá)到95.5%,Dice系數(shù)96.2%,Jaccard系數(shù)92.6%,HdD指標(biāo)4.88%。與經(jīng)典U-Net模型相比Dice系數(shù)提高2.2%,Jaccard系數(shù)提高3.7%,HdD指標(biāo)降低13.9%。實(shí)驗(yàn)結(jié)果表明,提出的分割方法對椎骨圖像分割可以達(dá)到精確分割的效果,能夠適用于臨床中的椎骨圖像分割任務(wù)。

        關(guān)鍵詞:

        椎骨CT圖像;U-Net網(wǎng)絡(luò);Graph-Cut算法;圖像分割

        DOI:10.15938/j.jhust.2021.03.009

        中圖分類號(hào): TP391.4

        文獻(xiàn)標(biāo)志碼: A

        文章編號(hào): 1007-2683(2021)03-0058-07

        Vertebra CT Image Segmentation Method Based

        on Improved U-Net Model

        LIU Xia, YU Hong-bo, LI Bing, WANG Bo

        (School of Automation, Harbin University of Science and Technology, Harbin 150080, China)

        Abstract:In view of the problem that the classical u-net model does not make full use of the image information during the CT segmentation of vertebrae, which leads to unclear image edge segmentation, an improved algorithm of CT image segmentation of vertebrae based on the u-net model is proposed. Firstly, it was improved and optimized on the basis of the classic u-net model. Then, the improved u-net model was used to segment the vertebral region and obtain the rough segmentation result. Finally, the rough segmentation result was strengthened by the edge constraint algorithm (Graph-Cut) so as to achieve the edge refinement segmentation. In this paper, the segmentation precision of the methord can be reached 95.5%. The Dice coefficient is 96.2%. The Jaccard coefficient is 92.6%.The HdD index is 4.88. Compared with the classic u-net model, the Dice coefficient increased by 2.2%, the Jaccard coefficient increased by 3.7%, and the HdD index decreased by 13.9%.

        Keywords:CT image of vertebrae; U-Net network; Graph-Cut algorithm; image segmentation

        0 引 言

        健康的椎骨維持著人體正常生理形態(tài),從顱骨開始中間連接肋骨到髖骨為止,是人體后側(cè)支撐,具有挺拔軀體,保護(hù)內(nèi)臟器官等重要作用。然而現(xiàn)代社會(huì)中,由于人們生活節(jié)奏加快、工作壓力繁重、從事人力勞動(dòng)人口眾多等原因,患有椎骨疾病[1-2]的患者不斷呈現(xiàn)出年輕化的趨勢并且病患數(shù)量也再遞增,據(jù)統(tǒng)計(jì)在40歲以下人群中患有椎骨相關(guān)疾病的人數(shù)接近40%以上。還原患者椎骨真實(shí)形態(tài)可以輔助骨科醫(yī)師降低手術(shù)過程中的風(fēng)險(xiǎn)。所以針對于椎骨CT圖像高精度分割出有效的椎骨信息對于輔助臨床診斷迫在眉睫。

        為了解決椎骨分割精度問題,國內(nèi)外學(xué)者已經(jīng)提出許多方法用于椎骨的自動(dòng)分割。Yao等[3]提出使用一個(gè)簡單的閾值來獲得初始的脊柱分割,然后采用分水嶺算法和有向圖搜索相結(jié)合的方法提取椎管,最后用四部分椎體模型(椎體、棘突、左右橫突)將椎體區(qū)域分段,并與相鄰的肋骨等結(jié)構(gòu)分開。Lim等[4]介紹了一個(gè)脊柱分割框架。將傳統(tǒng)的圖像處理技術(shù)、數(shù)學(xué)形態(tài)學(xué)和曲線擬合相結(jié)合來識(shí)別脊柱并通過質(zhì)心還原椎骨形狀。隨后利用形狀約束和形狀能量耦合高斯核驅(qū)動(dòng)水平集分割。Klinder等[5]提出了一種基于模型的方法來自動(dòng)標(biāo)記和分割胸腔CT圖像。整合29組數(shù)據(jù)建立了完整脊柱的姿態(tài)模型。Krinidis等[6]提出一種基于模糊能量的最小化模型,將模糊能量看作最小劃分問題的一個(gè)特例,該模糊能量作為模型的激勵(lì)能量,使主動(dòng)輪廓在目標(biāo)邊界處停止。Glocker等[7]提出的算法主要基于回歸森林和概率圖形模型。鑒別性、退行性部分的目的是大致檢測脊柱的可見部分。通過生成模型獲取脊柱的形狀和外觀,從而實(shí)現(xiàn)對單個(gè)椎骨的精確定位和識(shí)別。Liu等[8]提出一種改進(jìn)的基于隱馬爾可夫隨機(jī)場框架的算法。由隱馬爾可夫隨機(jī)場建立分類的先驗(yàn)分布,將添加了記憶器的模擬退火算法與期望最大化算法進(jìn)行融合,并結(jié)合最大后驗(yàn)估計(jì)準(zhǔn)則來進(jìn)行參數(shù)估計(jì)并得到最終結(jié)果。Ma等[9]利用可操縱特征訓(xùn)練了目標(biāo)特異性邊緣檢測的判別分類器,并學(xué)習(xí)了12個(gè)胸椎的統(tǒng)計(jì)形狀模型,這樣可以保證椎體形狀的光滑性和拓?fù)浣Y(jié)構(gòu)。

        相比較以上的方法,卷積神經(jīng)網(wǎng)絡(luò)的方法具有深度特征提取能力和較強(qiáng)的自適應(yīng)性。Suzani等[10]提出一種深入前饋神經(jīng)網(wǎng)絡(luò)來檢測輸入圖像

        是否包含特定的椎骨,雖然具有高檢測效率,但卻存在較大的平均定位誤差。Chen等[11]提出一種聯(lián)合卷積神經(jīng)網(wǎng)絡(luò)(J-CNN),這種方法采用隨機(jī)森林分類器J-CNN掃描輸出CT圖像體積并根據(jù)相鄰椎骨的信息來定位椎骨,但基于卷積神經(jīng)網(wǎng)絡(luò)的方法一般采取逐像素取塊提取信息,非常耗時(shí)。Long等[12]提出端對端的全卷積神經(jīng)網(wǎng)絡(luò)利用卷積層代替全連接層,使用編碼器-解碼器的網(wǎng)絡(luò)結(jié)構(gòu),分割任意尺寸圖像,但該方法對于邊緣細(xì)節(jié)的分割不精。

        基于以上方法的研究,本文著重關(guān)注了結(jié)構(gòu)簡潔性能突出的U-Net模型,并根據(jù)實(shí)驗(yàn)分析針對經(jīng)典U-Net模型提出改進(jìn):改進(jìn)U-Net模型增強(qiáng)特征復(fù)用性,加深網(wǎng)絡(luò)分割效果。將分割信息及圖像本身特征信息作為圖割算法的輸入,進(jìn)行分割要素的邊界有效推斷,解決邊緣目標(biāo)模糊分割問題。

        1 本文算法

        本文算法的整體流程主要包括4個(gè)步驟:預(yù)處理階段突出圖像中椎骨信息減少分割干擾;數(shù)據(jù)擴(kuò)充為神經(jīng)網(wǎng)絡(luò)防止網(wǎng)絡(luò)過擬合;基于改進(jìn)U-Net 網(wǎng)絡(luò)模型的圖像粗分割,以及采用GraphCut對粗分割輪廓的細(xì)化。整個(gè)數(shù)據(jù)集按照7∶3比例分為訓(xùn)練集和測試集。

        訓(xùn)練集用于網(wǎng)絡(luò)訓(xùn)練,測試集用于測試網(wǎng)絡(luò)分割能力。主要分割流程具體描述如圖1所示。

        1.1 數(shù)據(jù)預(yù)處理

        常見預(yù)處理包括去噪去霧等[13]操作, 由于需要從椎骨圖像樣本中提取出感興趣區(qū)域所以對其進(jìn)行預(yù)處理,預(yù)處理結(jié)果作為訓(xùn)練網(wǎng)絡(luò)和進(jìn)行測試所使用的數(shù)據(jù)樣本。首先對椎骨CT圖像進(jìn)行限制對比度自適應(yīng)直方圖均衡化(Clahe),通過計(jì)算圖像的局部直方圖,然后重新分布亮度來改變圖像對比度,有利于改進(jìn)圖像的局部對比度以及獲得更多的圖像細(xì)節(jié),然后經(jīng)過雙邊濾波(bilateral filter,BF)。雙邊濾波采用了兩個(gè)高斯濾波的結(jié)合,一個(gè)負(fù)責(zé)計(jì)算空間鄰近度的權(quán)值,而另一個(gè)負(fù)責(zé)計(jì)算像素值相似度的權(quán)值,將圖像空間信息與鄰近像素信息相結(jié)合,在濾除噪聲平滑圖像[14-16]的同時(shí),又做到邊緣保存。最后利用Gamma矯正平滑的擴(kuò)展暗調(diào)的細(xì)節(jié),預(yù)處理結(jié)果如圖2所示。

        1.2 數(shù)據(jù)擴(kuò)充

        由于可用的已標(biāo)注的椎骨圖像數(shù)據(jù)較少,難以用于訓(xùn)練一個(gè)深度神經(jīng)網(wǎng)絡(luò)模型,同時(shí)在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過程中會(huì)有大量的參數(shù),必須依靠大規(guī)模的訓(xùn)練數(shù)據(jù)才能防止出現(xiàn)過擬合?;诖耍槍ψ倒荂T圖像數(shù)據(jù)量少的情況,引入了由 Wang等[17]提出的圖像變形的方法來對圖像數(shù)據(jù)進(jìn)行擴(kuò)充,借助該方法可生成更具形狀差異性的圖像數(shù)據(jù)以供網(wǎng)絡(luò)進(jìn)行訓(xùn)練。圖3為圖像擴(kuò)充的實(shí)現(xiàn)。

        在本文中,首先對所有原始的 CT切片進(jìn)行圖像變形,之后對原始圖片及其圖像變形后的圖片應(yīng)用隨機(jī)旋轉(zhuǎn),隨機(jī)平移,垂直翻轉(zhuǎn),水平翻轉(zhuǎn)等四種數(shù)據(jù)擴(kuò)充方法,從而最終實(shí)現(xiàn)原始椎骨圖像數(shù)據(jù)的數(shù)據(jù)擴(kuò)充。

        1.3 改進(jìn)的U-Net模型

        圖4所示為本文中所改進(jìn)的U-Net網(wǎng)絡(luò)結(jié)構(gòu),以經(jīng)典的U-Net[18] 網(wǎng)絡(luò)為基本框架,設(shè)計(jì)一種更利于椎骨分割的更深層次的網(wǎng)絡(luò)模型。本文算法的核心思想是通過卷積壓縮部分進(jìn)行目標(biāo)區(qū)域的特征提取,結(jié)合卷積還原部分進(jìn)行上采樣,將獲取的基于上下文信息綜合得到更精確的結(jié)果。本實(shí)驗(yàn)采用的網(wǎng)絡(luò)架構(gòu)如圖2所示,網(wǎng)絡(luò)由11個(gè)卷積層組、5個(gè)池化層、5個(gè)上采樣層組成。其中前4個(gè)卷積層包含兩個(gè)卷積操作,卷積核大小為3×3,最后1個(gè)卷積層包含3個(gè)卷積操作,卷積核大小為5×5,以此達(dá)到擴(kuò)大局部感受的目的。在每一個(gè)卷積操作后面添加一個(gè)RELU的線性修正單元和一個(gè)卷積核為2×2的最大池化層。上采樣層采用反卷積操作實(shí)現(xiàn)一對多的圖像恢復(fù)操作,跳層結(jié)構(gòu)記錄了池化時(shí)的位置并將輸入的特征按記錄的位置進(jìn)行還原。它的輸出則是與輸入圖像大小相同的分割分割圖像。跳層結(jié)構(gòu)彌補(bǔ)反卷積時(shí)僅僅利用最后一層中卷積核中的特征的缺陷,防止了特征信息的丟失。區(qū)別于原始的U-Net網(wǎng)絡(luò)采用最大池化層(max-pooling layer)進(jìn)行下采樣,其中最大池化層步長為2卷積核為2×2,輸入為卷積塊生成的特征圖,使用池化層能降低輸出維度、避免特征冗余。上采樣能增大特征圖的分辨率,使圖像還原到原始大小。每上采樣1次,都要與特征提取中對應(yīng)通道數(shù)尺度相融合,目的是為了獲得多尺度特征信息來提高網(wǎng)絡(luò)性能,但特征提取部分要先整合成相同大小的特征圖。

        1.4 圖割算法

        Chen等[19]致力于基于切口的醫(yī)學(xué)分割方法,包括圖形切割和圖形搜索以進(jìn)行區(qū)域和表面分割。圖割算法的核心理論就是通過邊界能量函數(shù)與區(qū)域能量函數(shù)的極小值的來找出最優(yōu)的分割路徑,具有效率高、魯棒性強(qiáng)、分割精確度高的特點(diǎn)。圖割(Graph-Cut)算法的理論基礎(chǔ)來源于圖論,對圖像中帶權(quán)值的邊進(jìn)行路徑規(guī)劃?;诟倪M(jìn)U-Net的椎骨分割方式 ,可以實(shí)現(xiàn)高精度分割,但其分割邊緣信息細(xì)粒度依舊不夠完整。為了提高椎骨邊緣分割能力,引入圖割算法對改進(jìn)U-Net分割結(jié)果進(jìn)行邊緣細(xì)化分割。在圖像處理領(lǐng)域,采用圖割算法對像素類別進(jìn)行判斷,建立了像素與其相鄰像素之間的空間關(guān)系,可以高效分割不同類別像素之間的界限。對于圖像來說將其看做無向圖求取能量函數(shù)最小值,它的能量函數(shù)包含區(qū)域項(xiàng)和邊界項(xiàng),能量函數(shù)如下

        E(A)=λ·R(A)+B(A)(1)

        E(A)表示各邊的權(quán)重之和,即能量函數(shù)。圖割的目標(biāo)就是使能量函數(shù)E(A)的值最小,找到合適的邊的路徑將圖像分割開。R(A)為區(qū)域項(xiàng)(regional term)能量函數(shù),B(A)為邊界項(xiàng)(boundary term)能量函數(shù)。系數(shù)λ≥0,值代表了區(qū)域項(xiàng)能量函數(shù)對總能量函數(shù)的影響。區(qū)域項(xiàng)能量函數(shù)可以用下式表達(dá):

        R(A)=∑p∈PRp(Ap)(2)

        區(qū)域項(xiàng)R(A)表示將像素點(diǎn)標(biāo)記為背景點(diǎn)或者前景點(diǎn)的代價(jià)。其中Rp(Ap)為將像素點(diǎn)p為標(biāo)簽Ap的懲罰代價(jià),Rp(Ap)的值可以通過比較像素點(diǎn)p的灰度和給定的目標(biāo)和前景的灰度直方圖來獲得。假設(shè)圖像是滿足馬爾科夫模型(MAP-MRF),那么Rp(Ap)可以表達(dá)為如下形式:

        Rp(“obj”)=-lnPr(Ip|O)(3)

        Rp(“bac”)=-lnPr(IP|B)(4)

        由式(3)、(4)可得,根據(jù)目標(biāo)區(qū)域概率Pr(Ip|B)與背景區(qū)域概率Pr(Ip|O)大小的比較,就可以將圖像中某一個(gè)像素點(diǎn)p進(jìn)行劃分,假如概率Pr(Ip|O)大于屬于背景區(qū)域的概率Pr(Ip|B),根據(jù)公式可以計(jì)算出Rp(“obj”)小于Rp(“bac”)。得到的結(jié)果為像素p在大概率上位于目標(biāo)區(qū)域中,像素p標(biāo)記為目標(biāo)點(diǎn)就會(huì)使區(qū)域項(xiàng)能量函數(shù)R(A)的值變小。當(dāng)圖像的像素集合都被成功標(biāo)記以后,區(qū)域項(xiàng)的能量將會(huì)達(dá)到最小值,此過程只需要依次判斷像素點(diǎn)的標(biāo)記,不存在迭代標(biāo)記。邊界項(xiàng)能量函數(shù)表示為如下形式:

        B(A)=∑{p,q}∈NB{p,q}·δ(Ap,Aq)(5)

        δ(Ap,Aq)=1 if Ap≠Aq

        0 otherwise(6)

        邊界項(xiàng)B(A)可以表示為對相鄰像素點(diǎn)p和q的不連續(xù)性的懲罰。B{p,q}的值可以用像素點(diǎn)的亮度梯度來表示:

        B{p,q}∝exp-(Ip-Iq)22σ2·1dist(p,q)(7)

        如果p和q亮度值越相近證明屬于一類的機(jī)會(huì)越大,B{p,q}越大,如果p和q的亮度差異很大證明兩個(gè)像素點(diǎn)灰度變化較大可能位于待分割目標(biāo)的邊緣附近,B{p,q}接近0,需要將兩個(gè)像素之間相連接的邊進(jìn)行分割。因此,邊界項(xiàng)上的規(guī)律為兩鄰域像素差別越大,B{p,q}越小,即被割斷的代價(jià)最小。

        1.5 分割算法偽代碼

        主要由兩部分組成,第一步分割后將會(huì)產(chǎn)生一個(gè)圖輸入大小相同的特征圖像,第二步將分割圖像按照無向圖處理,重新構(gòu)建圖割算法的能量函數(shù),從而完善分割后圖像的邊界細(xì)節(jié)。其中改進(jìn)U-Net分割根據(jù)搭建的分割框架根據(jù)訓(xùn)練好的參數(shù)結(jié)果將預(yù)處理后的原始圖像進(jìn)行分割,獲取到了第一次分割的結(jié)果并進(jìn)行保存,但部分椎骨邊緣分割分割黏連,沒有按照預(yù)想進(jìn)行貼附椎骨邊緣細(xì)節(jié)進(jìn)行分割。經(jīng)過圖割算法,首先框選分割范圍,對前景與背景做出標(biāo)記,從而優(yōu)化出椎骨邊緣細(xì)節(jié)。優(yōu)化算法偽代碼如下:

        輸入:圖像數(shù)據(jù)集的訓(xùn)練樣本X

        輸出:分割完成的圖像數(shù)據(jù)

        1 全卷積網(wǎng)絡(luò)讀入訓(xùn)練樣本X

        2 for x1,x2,…,xnX

        3 訓(xùn)練集訓(xùn)練U-Net模型

        4 end for

        5 保存訓(xùn)練得到的模型框架

        6 加載U-Net模型,分割待分割圖像

        7 圖割算法加載分割圖像

        8 while E(A)不是最小值

        10 更新E(A)

        11 end while

        12 得到圖像像素的概率圖,映射到待分割圖像

        13 輸出圖像分割結(jié)果

        2 實(shí)驗(yàn)結(jié)果分析

        2.1 實(shí)驗(yàn)環(huán)境

        本文分割算法實(shí)驗(yàn)環(huán)境為Ubuntu16.04 LST 64位操作系統(tǒng),3.4GHz CPU,16GB內(nèi)存,顯卡NVIDIA GTX1080Ti Tensorflow1.8 Keras2.2框架進(jìn)行椎骨CT圖像定位分割實(shí)驗(yàn)。

        采用模型微調(diào)的方式進(jìn)行模型訓(xùn)練,首先利用已有的數(shù)據(jù)集對預(yù)U-Net網(wǎng)絡(luò)模型進(jìn)行與訓(xùn)練作為基礎(chǔ)網(wǎng)絡(luò);然后對U-Net的卷積層參數(shù)進(jìn)行復(fù)制和固定;并通過設(shè)置標(biāo)準(zhǔn)偏差為2/N的高斯分布來初始化權(quán)重,其中N表示一個(gè)神經(jīng)元的輸入節(jié)點(diǎn)的數(shù)量; 最后,設(shè)置合理的學(xué)習(xí)率,學(xué)習(xí)率過大會(huì)導(dǎo)致模型震蕩不能收斂,學(xué)習(xí)率過小會(huì)導(dǎo)致訓(xùn)練速度慢,本文將學(xué)習(xí)率設(shè)置為0.001,學(xué)習(xí)率以“step”方式減小。

        2.2 數(shù)據(jù)集

        本文中所用的數(shù)據(jù)由MICCAI2015椎體分段挑戰(zhàn)提供,數(shù)據(jù)集主要是胸椎段和腰椎段的椎骨,該數(shù)據(jù)集平面內(nèi)分辨率為512×512,水平分辨率是96dpi,垂直分辨率是96dpi,切片厚度為1mm,每個(gè)圖像都帶有相應(yīng)的專家手動(dòng)注釋的椎骨(白色)和背景(黑色)的真實(shí)分割圖。

        本實(shí)驗(yàn)的原有數(shù)據(jù)共選取MICCAI2015數(shù)據(jù)集中600張含有椎骨的CT圖像,訓(xùn)練之前首先需要將原始DICOM格式的圖像保存為TIF的格式。這樣可以保留更多的圖像細(xì)節(jié)信息。然后通過數(shù)據(jù)增強(qiáng)的方式增大圖像訓(xùn)練集,并將圖片分辨率改為256×256。新加入的數(shù)據(jù)集如果不做尺度變換,會(huì)對原來訓(xùn)練集產(chǎn)生一定干擾。使模型訓(xùn)練出現(xiàn)偏差,影響檢測精度。然后將脊椎CT圖像數(shù)據(jù)集隨機(jī)劃分為10個(gè)互斥子集,選取3個(gè)子集作為測試集,其余7個(gè)子集作為訓(xùn)練集。為驗(yàn)證分割結(jié)果的普適性,隨機(jī)篩選CSI椎骨數(shù)據(jù)集中10位患者椎骨圖像進(jìn)行驗(yàn)證分割,篩選患者性別數(shù)量平均,年紀(jì)范圍19~38周歲如表1所示。該數(shù)據(jù)集全部對外公開采集方式為醫(yī)院臨床治療樣片底版,數(shù)據(jù)集包含胸椎、腰椎CT圖像。

        3.3 分割結(jié)果評估與分析

        為了更全面的評估結(jié)果,我們同時(shí)采用區(qū)域和分類精度兩類評估指標(biāo)[20-21],即Dice重合率、Jaccard相似系數(shù)、分類精度和Hausdorff距離(Hausdorff distance,HdD)。其中Dice和Jaccard是基于區(qū)域的評價(jià)指標(biāo),側(cè)重于標(biāo)簽參考區(qū)域與自動(dòng)分割結(jié)果在空間維度上的重合度;分類精度和Hausdorff距離是基于像素點(diǎn)分類和像素距離的評價(jià)指標(biāo),側(cè)重于標(biāo)簽參考區(qū)域與自動(dòng)分割結(jié)果輪廓的重合度。當(dāng)標(biāo)簽參考區(qū)域與自動(dòng)分割的區(qū)域完全重合時(shí),即Dice、Jaccard、Precision指標(biāo)越高,HdD指標(biāo)越小時(shí),表示分割出的椎骨效果越好。其定義如下:

        Jaccard=|A∩B||A∪B|=|A∩B||A|+|B|-|A∩B|(8)

        Dice=2|A∩B||A|+|B|(9)

        precision=TPTP+FP(10)

        HdD=max(maxPGGdmin(ps,S),maxPGSdmin(ps,S))(11)

        式中:A為標(biāo)簽參考區(qū)域;B為分割的區(qū)域;TP為正確分類樣本個(gè)數(shù);FP為錯(cuò)誤分類樣本個(gè)數(shù);dmin(PG,S)為標(biāo)簽參考區(qū)域上的點(diǎn)到分割區(qū)域上最近點(diǎn)的距離;dmin(ps,G)為分割區(qū)域上的點(diǎn)到標(biāo)簽參考區(qū)域上最近點(diǎn)的距離。

        如圖5所示為椎骨的實(shí)驗(yàn)分割結(jié)果。利用本提出算法對頸椎圖像,胸椎切片圖像,以及腰椎圖像分別從冠狀面,橫截面,矢狀面進(jìn)行分割。其中,圖5(a)為圖片原始數(shù)據(jù),圖5(b)為模型分割結(jié)果,圖5(c)為加入圖割的分割結(jié)果。由圖可見,經(jīng)過粗分割后圖像邊緣連接處存在過度分割的問題;而后將圖割算法加入進(jìn)行邊緣像素約束,邊緣分割精度有明顯的提升。相比較于其他算法的邊緣不夠平滑,存在分割邊界凹凸不同的問題,本文的分割圖像邊緣較為平滑且分割效果較為突出。

        為確保本文分割方法具有普適性,對于臨床椎骨圖像同樣適用。在同樣為臨床樣片的CSI數(shù)據(jù)集中隨機(jī)篩選出CT圖像進(jìn)行分割,驗(yàn)證分割方法的準(zhǔn)確性。圖6(a)為原始臨床樣片,清晰可見各種臟器干擾。為了驗(yàn)證分割普適性,將原始圖像導(dǎo)入分割算法后,經(jīng)U-Net改進(jìn)算法分割以及Graph-Cut算法優(yōu)化,圖6(b)為得到的分割結(jié)果。

        依據(jù)以上的分割結(jié)果,本文研究的框架模型與其他模型算法進(jìn)行分割性能的評價(jià)與比較,可以看出本文模型作為本研究框架的核心算法,能夠更好的獲取目標(biāo)邊界,具有較高的分割精度。為進(jìn)一步展示所提方法的分割優(yōu)勢,不同分割方法的實(shí)驗(yàn)結(jié)果對比如圖7、圖8所示。

        在Dice重合率、Jaccard相似度、HdD指標(biāo)和Precision指標(biāo)評價(jià)均優(yōu)于其他傳統(tǒng)的椎骨分割算法。

        本文的方法在效率上也相對比較高,分割速度對比結(jié)果如表2所示,平均處理一張圖片的時(shí)間大約需要1s與其他分割算法比較相對分割速度較快。這是因?yàn)楸疚牡姆椒ㄔ诰W(wǎng)絡(luò)訓(xùn)練好了以后就可以直接進(jìn)行圖像分割工作,在分割的過程中只需要執(zhí)行網(wǎng)絡(luò)的前項(xiàng)計(jì)算,而且本文的模型屬于端到端的網(wǎng)絡(luò),即執(zhí)行一次就可獲得分割結(jié)果,這樣節(jié)省了很多時(shí)間。

        3 結(jié) 論

        本文提出 一種基于改進(jìn)的U-Net網(wǎng)絡(luò)和條件隨機(jī)場算法的椎骨分割方法。該方法首先將DICOM數(shù)據(jù)進(jìn)行格式轉(zhuǎn)化,并對數(shù)據(jù)進(jìn)行預(yù)處理。然后利用改進(jìn)的U-Net網(wǎng)絡(luò)進(jìn)行椎骨分割,通過加入了Dice損失函數(shù),有效解決了椎骨圖像中前景與背景區(qū)域的比例問題。最后加入Graph-Cut進(jìn)行邊緣約束,有效解決邊緣不平滑和分割不完整的問題。實(shí)驗(yàn)結(jié)果表明本文方法在對椎骨輪廓進(jìn)行分割時(shí)具有較高的效率和較好的分割精度,但對于椎骨切片內(nèi)部的情況分割不完整。在之后的研究學(xué)習(xí)中,我們應(yīng)該將CT圖像內(nèi)部的空間特征和邊緣特征相結(jié)合,使得我們能夠更加精準(zhǔn)的分割出椎骨。

        參 考 文 獻(xiàn):

        [1] 陳濤, 黎觀保, 梁科友, 等. 脊柱-骨盆矢狀面平衡及其在脊柱疾病治療中的作用[J].中國組織工程研究,2013,17(13):2423.

        CHEN Tao, LI Guanbao, LIANG Keyou, et al. The Role of Spino-pelvic Sagittal Balance in the Treatment of Adultspinal Deformity[J].Journal of Clinical Rehabilitative Tissue Engineering Research,2013,17(13):2423.

        [2] 徐啟武. 中國神經(jīng)外科學(xué)界應(yīng)重視脊髓脊柱疾病的研究[J].中華神經(jīng)外科雜志,2006(10):581.

        XU Qiwu. Chinese Neurosurgery Should Pay Attention to the Research of Spinal Cord Diseases[J].Chin J Nesurg, 2006(10):581.

        [3] YAO J, O′CONNOR S D, SUMMERS R M. Automated Spinal Column Extraction and Partitioning[C]// IEEE International Symposium on Biomedical Imaging: Nano To Macro. IEEE, 2006:390.

        [4] LIM P H, BAGCI U, ARAS O, et al. Identification of Spinal Vertebrae Using Mathematical Morphology and Level Set Method[C]// Nuclear Science Symposium and Medical Imaging Conference. IEEE, 2011:3105.

        [5] KLINDER T, LORENZ C, BERG J V, et al. Automated Model-B-ased Rib Cage Segmentation and Labeling in CT Images[M]// Medical Image Computing and Computer-Assisted Int-ervention-MICCAI 2007. Springer Berlin Heidelberg, 2007:195.

        [6] KRINIDIS S, CHATZIS V. Fuzzy Energy-Based Active Contours[J]. IEEE Transactions on Image Processing, 2009,18(12):2747.

        [7] GLOCKER B, FEULNER J, CRIMINISI A, et al. Automatic Localization and Identification of Vertebrae in Arbitrary Field-of-view CT Scans[C]// Med Image Comput Comput Assist Interv, 2012:590.

        [8] 劉俠, 匡瑞雪, 王波. 基于隱馬爾可夫場的脊柱CT圖像分割算法[J].哈爾濱理工大學(xué)學(xué)報(bào),2018,23(2):1.

        LIU Xia, KUANG Ruixue, WANG Bo.Segmentation Algorithm of Spine CT Image Based on Hidden Markov Random Field[J]. Journal of Haerbin University of Science and Technology, 2018, 23(2):1.

        [9] MA J, LU L, ZHAN Y Q, et al. Hierarchical Segmentation and Identification of Thoracic Vertebra Using Learning-Based Edge Detection and Coarse-to-Fine Deformable Model[J]. Computer Vision & Image Understanding, 2013, 117(9):1072.

        [10]SUZANI A, SEITEL A, LIU Y, et al. Fast Automatic Vertebrae Detection and Localization in Pathological CT Scans-A Deep Learning Approach[C]// Medical Image Computing and Computer-Assisted Intervention-MICCAI 2015. Springer International Publishing, 2015:678.

        [11]CHEN H, SHEN C, QIN J, et al. Automatic Localization and Identication of Vertebrae in Spine CT Via a Joint Learning Model with Deep Neural Networks[C]// In International Conference on Medi-cal Image Computing and Computer-Assisted Intervention,2015:515.

        [12]LONG J, SHELHAMER E, DARRELL T. Fully Convolutional Networks for Semantic Segmentation [J].IEEE Transactions on Pattern Analysis & Machine Intelligence , 2017,39(4):640.

        [13]董靜薇,趙春麗,海博.融合同態(tài)濾波和小波變換的圖像去霧算法研究[J].哈爾濱理工大學(xué)學(xué)報(bào),2019,24(1):66.

        DONG Jingwei, ZHAO Chunli, HAI bo. Research on Image Defog Algorithm Based on Fusion Homomorphic Filtering and Wavelet Transform[J].Journal of Haerbin University of Science and Technology,2019,24(1):66.

        [14]李小紅, 蔣建國, 吳從中. 圖像去椒鹽噪聲濾波器的研究[J]. 工程圖學(xué)學(xué)報(bào), 2009(6):113.

        LI Xiaohong, JIANG Jianguo, WU Congzhong. Research on Filter for Removing Image Salt and Pepper Noise[J]. Journal of Engineering Graphics, 2009(6):113.

        [15]NAKASHIZUKA M, KOBAYASHI K I, ISHIKAWA T, et al. Convex Filter Networks Based on Morphological Filters and their Application to Image Noise and Mask Removal[J]. IEICE Transactions on Fundamentals of Electronics Communications and Computer Sciences, 2017, 100(11):2238.

        [16]CAO Wei, WANG Huabin, SHI Jun, et al. Enhancement Algorithm of Finger Vein Image Based on Weighted Guided Filter with Edge Detection[J]. Laser & Optoelectronics Progress, 2017, 54(2):021007.

        [17]WANG Qihui, XI Yan, CHEN Yi, et al. CT Reconstruction with Priori MRI Images Through Multi-Group Datasets Expansion[J]. Journal of Shanghai Jiaotong University(Science), 2017(6):118.

        [18]HAN Y, YE J C. Framing U-Net Via Deep Convolutional Framelets: Application to Sparse-view CT[C]// IEEE Transactions on Medical Imaging, 2018:1.

        [19]CHEN X, PAN L. A Survey of Graph Cuts/Graph Search Based Medical Image Segmentation[J]. IEEE Reviews in Biomedical Engineering, 2018(99):1.

        [20]韋修喜, 周永權(quán). 基于ROC曲線的兩類分類問題性能評估方法[J]. 計(jì)算機(jī)技術(shù)與發(fā)展, 2010(11):53.

        WEI Xiuxi, ZHOU Yongquan. A New Performance Categories Evaluation Method Based on ROC Curve[J].Computer Technology and Development, 2010(11):53.

        [21]林珊珊, 周桂軍, 吳波. 面向?qū)ο蟮母叻直媛蔬b感影像分割分類評價(jià)指標(biāo)[J]. 地球信息科學(xué)學(xué)報(bào), 2013:15(4):567.

        LIN Shanshan, ZHOU Guijun, WU bo.? Object-oriented High-resolution Image Segmentation and Classification Evaluation Index[J].Journal of Geo-information Science, 2013:15(4):567.

        (編輯:溫澤宇)

        猜你喜歡
        椎骨像素卷積
        趙運(yùn)哲作品
        藝術(shù)家(2023年8期)2023-11-02 02:05:28
        基于時(shí)域全卷積網(wǎng)絡(luò)的語音增強(qiáng)
        像素前線之“幻影”2000
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        PS植入路徑上不同動(dòng)物椎骨近紅外特性差異研究*
        寰椎骨折臨床特點(diǎn)分析
        “像素”仙人掌
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        高像素不是全部
        CHIP新電腦(2016年3期)2016-03-10 14:22:03
        西北太平洋秋刀魚椎骨形態(tài)的初步研究
        中文字幕在线观看乱码一区| 厨房玩丰满人妻hd完整版视频| 97精品人妻一区二区三区蜜桃| 日本少妇高潮喷水视频| 中文字幕人妻在线中字| 亚洲综合色婷婷七月丁香| 亚洲av无码专区在线播放中文 | 特黄特色的大片观看免费视频| 精品亚洲成a人在线观看青青| 美丽人妻被按摩中出中文字幕| 亚洲欧洲精品成人久久曰影片| 国产精品久久久久免费看| 国产伦理自拍视频在线观看| 邻居少妇太爽在线观看| 熟女人妻在线中文字幕| 国产情侣一区二区| 国产激情综合在线观看| 日韩制服国产精品一区| 人人狠狠综合久久亚洲婷婷| 亚洲国产精品悠悠久久琪琪| 狠狠亚洲超碰狼人久久老人| 亚洲女av中文字幕一区二区| 男女18禁啪啪无遮挡激烈网站| 国产亚洲一本大道中文在线| 成人综合网亚洲伊人| 日本在线视频网站www色下载 | 日本伦理美乳中文字幕| 高清不卡av一区二区| 亚洲av无码偷拍在线观看| 欧美疯狂做受xxxx高潮小说| 久久久伊人影院| 亚洲一区二区三区ay| 日本久久精品中文字幕| 人成午夜免费视频无码| 全免费a级毛片免费看网站| 国产精品 精品国内自产拍| 国产日韩一区二区精品| 日韩精品一区二区三区影音视频| 国产人成精品免费久久久| 伊人色综合久久天天五月婷| 在线亚洲人成电影网站色www|