亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        U形網(wǎng)絡(luò)的脊椎分割改進方法研究

        2020-12-07 06:12:45梁淑芬楊芳臣秦傳波
        現(xiàn)代電子技術(shù) 2020年21期
        關(guān)鍵詞:特征提取

        梁淑芬 楊芳臣 秦傳波

        摘? 要: 針對當前U?Net網(wǎng)絡(luò)模型以及相關(guān)卷積網(wǎng)絡(luò)在脊椎分割中分割邊緣精度低,對目標的識別率低等問題,提出幾種改進的語義分割網(wǎng)絡(luò)模型??紤]到脊椎MRI圖像中目標區(qū)域連續(xù)且集中,并存在復(fù)數(shù)微小區(qū)域,邊緣特征豐富,運用新型卷積塊替換標準卷積結(jié)構(gòu),利用多路徑思想,融入復(fù)數(shù)編解碼器結(jié)構(gòu),降低運算復(fù)雜度,提升邊緣特征提取力度,應(yīng)對不同的特征提取問題。模型在SpineWeb的High anisotropy MRIs of the lower back數(shù)據(jù)集2 000張脊椎圖像上做實驗,運用訓(xùn)練好的模型對同組脊椎MRI圖像作預(yù)測。實驗結(jié)果顯示,網(wǎng)絡(luò)模型的預(yù)測結(jié)果與提供的真值標簽在Dice系數(shù)以及Precision系數(shù)等幾項評價指標上分別達到0.891和0.894。

        關(guān)鍵詞: 脊椎分割; 網(wǎng)絡(luò)模型; U形網(wǎng)絡(luò); 結(jié)構(gòu)替換; 特征提取; 圖像預(yù)測

        中圖分類號: TN911.73?34? ? ? ? ? ? ? ? ? ? ? ?文獻標識碼: A? ? ? ? ? ? ? ? ? ? ? ? ?文章編號: 1004?373X(2020)21?0031?04

        Improved spinal segmentation method based on U?net

        LIANG Shufen, YANG Fangchen, QIN Chuanbo

        (Wuyi University, Jiangmen 529020, China)

        Abstract: As the current U?net models and related convolution networks have low accuracy of edge segmentation in spinal segmentation, several improved semantic segmentation network models are proposed. Since the continuity and concentration of target areas in the spine MRI (magnetic resonance imaging) images, plural small areas and rich edge features are considered, a new convolution block is used in the method to replace standard convolution structure. Several codec structures are integrated with an idea of multi?path, which can reduce the computation complexity and improve segmentation edge feature extraction to deal with different feature extraction. The experiments of 2 000 spinal images in SpineWeb′s High Anisotropy MRIs of the Lower Back dataset were carried out, using the trained model to forecast the spine MRI images in the same group. The experimental results show that the prediction results of the network model and evaluation indexes on the provided truth?value label for Dice coefficient and Precision coefficient have reached 0.891 and 0.894.

        Keywords: spinal segmentation; network model; U?net; structure replacement; feature extraction; image prediction

        0? 引? 言

        脊柱是人體的支柱,具有負重、減震、保護及日常運動的功能。隨著人們工作生活節(jié)奏的日益加快,脊柱問題成為現(xiàn)代社會普遍存在、亟待解決的健康問題[1?3]。脊椎醫(yī)學(xué)影像的研究對輔助臨床診斷解決脊椎問題有重要意義,其中脊椎分割一直是醫(yī)學(xué)界的一項重要挑戰(zhàn)[4]。

        為實現(xiàn)圖像的精準分割,國內(nèi)外研究學(xué)者考慮諸多方法,傳統(tǒng)方法中邊緣檢測法[5]、基于閾值的分割法[6]、區(qū)域生長法[7?9]、基于活動輪廓的方法[10]、基于聚類的分割方法[11?12]等。但由于傳統(tǒng)方法分割過程繁瑣,醫(yī)學(xué)影像采集設(shè)備噪聲影響等,分割質(zhì)量有限。

        與傳統(tǒng)的圖像分割方式相比,深度卷積網(wǎng)絡(luò)具有自動提取特征的特點,深度學(xué)習(xí)的方法對有標簽的數(shù)據(jù)處理,尤其是語義分割領(lǐng)域具有顯見的優(yōu)勢。文獻[13]提出的FCN(Fully Convolutional Networks)架構(gòu)將神經(jīng)網(wǎng)絡(luò)應(yīng)用于端到端的圖像語義分割領(lǐng)域,并取得了顯著效果。文獻[14]提出的基于FCN網(wǎng)絡(luò)架構(gòu)的語義分割方法U?Net網(wǎng)絡(luò)框架,通過帶標簽訓(xùn)練達到較高精度的語義分割,對醫(yī)學(xué)圖像分割的發(fā)展啟發(fā)深遠。文獻[15]構(gòu)成的殘差網(wǎng)絡(luò)降低了網(wǎng)絡(luò)復(fù)雜度。文獻[16]所述的Dense致密結(jié)構(gòu),通過特征融合更加緊密的快捷連接,提升了醫(yī)學(xué)圖像特征的利用率,增強了語義分割效果。結(jié)合殘差結(jié)構(gòu)以及可分離卷積結(jié)構(gòu),文獻[17]提出一種卷積塊用于降低網(wǎng)絡(luò)復(fù)雜度,減少計算量。文獻[18]融合殘差結(jié)構(gòu)與注意力機制等,提出一種雙解碼器的網(wǎng)絡(luò)結(jié)構(gòu),提升分割精度等。結(jié)合前述基于卷積神經(jīng)網(wǎng)絡(luò)的分割方法,針對脊椎圖像醫(yī)學(xué)特點,提出基于U?Net架構(gòu)的語義分割改進網(wǎng)絡(luò),實現(xiàn)脊椎影像更精確的脊椎分割。

        1? 方法介紹

        1.1? 編解碼網(wǎng)絡(luò)

        文獻[13]證明了經(jīng)端到端、像素到像素訓(xùn)練過程的卷積神經(jīng)網(wǎng)絡(luò)優(yōu)于當前語義分割中最先進技術(shù),并通過標準卷積形成卷積塊結(jié)構(gòu),搭建出完全由卷積組成的卷積編解碼FCN網(wǎng)絡(luò),其結(jié)構(gòu)如圖1所示。

        文獻[19]運用FCN獲得較高精度的分割結(jié)果;文獻[20]運用基于FCN的方法在林木圖像上獲得了良好的分割效果。

        與FCN結(jié)構(gòu)比較,U?Net架構(gòu)則更靈活,同樣采用編?解碼器架構(gòu),通過完善網(wǎng)絡(luò)結(jié)構(gòu)中的擴張路徑,與收縮路徑對應(yīng)地逐步恢復(fù)圖像尺寸,二者共同組成一個對稱的結(jié)構(gòu),如圖2所示。

        文獻[21]實現(xiàn)了基于U?Net的肺部影像自動分割;文獻[22]分割肺部腫瘤圖像,獲得了更精確的結(jié)果。此外還有些應(yīng)用于鼻咽喉腫瘤[23]和脊椎分割[24],效果顯著。

        編解碼網(wǎng)絡(luò)使用的帶標簽數(shù)據(jù)通常很少,經(jīng)過相應(yīng)預(yù)處理,就能訓(xùn)練得到比較精確的分割結(jié)果,適應(yīng)能力較強。但特征圖譜的維度會隨網(wǎng)絡(luò)深度的加深而增加,導(dǎo)致目標分割計算量增加。同時,圖像在收縮路徑中不斷地損失圖像細節(jié),到擴張路徑時,也會遇到難以恢復(fù)圖像邊緣等問題阻礙。

        1.2? 基于U?Net的改進網(wǎng)絡(luò)

        針對U?Net應(yīng)用于醫(yī)學(xué)圖像分割時存在的問題,Res?U?Net(Residual U?Net)融入了文獻[15]的殘差結(jié)構(gòu),將U型網(wǎng)絡(luò)中普通卷積塊轉(zhuǎn)換成殘差塊。如圖3a)所示,殘差塊由標準卷積和快捷連接(Shortcut Connection)構(gòu)成,可降低復(fù)雜度,減少計算量。

        但殘差結(jié)構(gòu)也會損失部分信息,為了穩(wěn)定圖像的分割精度,并進一步降低復(fù)雜度,Dense?U?Net網(wǎng)絡(luò)運用文獻[16]的致密結(jié)構(gòu),如圖3b)所示。Dense結(jié)構(gòu)在一定程度上緩解了神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中梯度消失的問題,同時增強了對象特征傳播,促進特征復(fù)用。

        實驗表明,致密結(jié)構(gòu)需有較深層的卷積塊支撐,且輸出端的特征維度比較大。文獻[17]提出一種DAB結(jié)構(gòu)(Depth?wise Asymmetric Bottleneck)構(gòu)成新卷積塊,使用ResNet[15]中的瓶頸結(jié)構(gòu),能在減少參數(shù)的同時穩(wěn)定分割精度。

        DAB結(jié)構(gòu)塊如圖3c)所示,運用可分離卷積的結(jié)構(gòu)思路,結(jié)合殘差網(wǎng)絡(luò)降低復(fù)雜度的特點,由標準卷積層、分離卷積層和1×1核卷積層組成非對稱式DAB卷積塊。

        改進的網(wǎng)絡(luò)DAB?U?Net仍使用編?解碼器結(jié)構(gòu),將普通卷積替換為對應(yīng)的DAB卷積。編碼器提取語義信息,解碼器獲取圖像細節(jié);網(wǎng)絡(luò)運用密集型skip connection,通過Feature Interaction將編碼器部分的所有特征整合并傳遞到高層特征中,減緩因編碼降采樣導(dǎo)致的信息丟失。

        運用文獻[18]提出的RIC?U?Net網(wǎng)絡(luò)結(jié)構(gòu),同時為更進一步利用DAB卷積塊提取的特征信息,在DAB?U?Net基礎(chǔ)上增加一條編碼路徑,保留跳層連接,通過新編碼器更新特征提取,補充單條編解碼路徑損失的信息。改進的網(wǎng)絡(luò)模型為W型結(jié)構(gòu),經(jīng)過不同程度調(diào)整,先后有W1,W2和W3三個版本結(jié)構(gòu),如圖4a)所示。DAB?W?Net網(wǎng)絡(luò)進一步提升特征利用率。

        通過增加預(yù)編碼路徑,促使網(wǎng)絡(luò)提前進入數(shù)據(jù)壓縮階段,形成DABN?Net網(wǎng)絡(luò)結(jié)構(gòu),如圖4b)所示。改進的DABN?Net網(wǎng)絡(luò)增加了預(yù)編碼路徑,采用標準卷積塊,初步提取特征,獲得更簡潔的數(shù)據(jù)信息后再輸入常規(guī)DAB?U?Net網(wǎng)絡(luò)中,強化對目標特征的提取能力,提升分割精度。

        實現(xiàn)分割的系統(tǒng)流程圖如圖5所示,先對數(shù)據(jù)集作預(yù)處理,然后輸入到網(wǎng)絡(luò)中訓(xùn)練。

        以圖像尺寸為標準,對原圖和標簽集同步作縮放傾斜等隨機形變,實現(xiàn)數(shù)據(jù)擴增。

        2? 結(jié)果與分析

        2.1? 實驗材料

        實驗使用SpineWeb的High anisotropy MRIs of the lower back數(shù)據(jù)集[25?26]。包含195例人體脊柱的腰椎MRI掃描圖像,其尺寸范圍在512×512~1 024×1 024之間。為方便實驗,對所選圖像進行預(yù)處理增強并規(guī)范到512×512,最后按3∶1∶1比例分配實驗。根據(jù)實際背景,實驗設(shè)備配置見表1。

        2.2? 評價指標

        為定量分析提出方法的分割性能,檢驗方法的分割效果,文中運用幾種常見的評價指標,包括Accuracy,Sensitivity,Specificity,Precision,[F1] Score,Jaccard Similarity以及Dice Coefficient。根據(jù)研究對象特點選擇其中五項為各方法作分割性能上的定量評估。

        Sensitivity系數(shù),又稱召回率,表示所有正像素中標注正確的像素集所占比例,衡量分割方法對正像素的識別能力。

        Specificity指標,又稱真陰性率,表示所有負像素中被標注正確的像素集合所占比例,衡量分割方法對負像素的識別能力。

        Precision表示精度,又稱查準率,是圖像分割精確性的度量參數(shù),是被標注為正的像素集合中實際為正的像素集合所占比例,衡量模型對正像素點的預(yù)測能力。

        Jaccard相似性系數(shù),給定兩個集合,正負集A,B,Jaccard系數(shù)表示集合A,B之間的交集與它們之間的并集的比值。

        Dice Coefficient系數(shù)為圖像中兩個目標形狀之間交集面積占總面積的比值,值越大,分割結(jié)果越好,完美重合時值為1。

        2.3? 實驗結(jié)果與分析

        實驗流程如圖5所示,在同一系統(tǒng)下使用不同網(wǎng)絡(luò)模型對MRI脊椎圖像進行訓(xùn)練。經(jīng)過后處理,將網(wǎng)絡(luò)預(yù)測輸出的脊椎分割結(jié)果圖像轉(zhuǎn)換為二值圖像,如圖6a)所示。

        比較預(yù)測結(jié)果,顯示DABW2?Net、DABW3?Net以及DABN?Net幾個分割網(wǎng)絡(luò)對醫(yī)學(xué)脊椎原圖的椎骨細節(jié)描述能力更強,展現(xiàn)的細節(jié)更為全面,其余包括U?Net,ResU?Net等模型在實驗預(yù)測過程中,都有不同程度的信息丟失。將訓(xùn)練好的模型應(yīng)用于臨床數(shù)據(jù),得到如圖6b)所示分割結(jié)果。

        實驗表明,提出的改進網(wǎng)絡(luò)模型可以進行臨床分割,效果顯著。

        如表2所示,提出的改進網(wǎng)絡(luò)對脊椎的分割在識別能力上有所強化,分割結(jié)果與標簽更相似。此外,通過對比原圖與標簽不難發(fā)現(xiàn),人工標簽明顯存在一些誤差,導(dǎo)致部分模型分割指標數(shù)據(jù)稍有波動。但總體上,模型性能都略優(yōu)于傳統(tǒng)卷積方法。

        3? 結(jié)? 論

        本文提出幾種改進的基于U?Net網(wǎng)絡(luò)模型的脊椎MRI醫(yī)學(xué)影像分割網(wǎng)絡(luò)模型,通過對網(wǎng)絡(luò)作改進,提升網(wǎng)絡(luò)分割精度,增加網(wǎng)絡(luò)深度。將預(yù)處理后的圖集輸入到改進的U型網(wǎng)絡(luò)模型中進行訓(xùn)練,改進的網(wǎng)絡(luò)在分割精度方面有所提高,對比同類型算法,所需訓(xùn)練樣本較少,訓(xùn)練速度較快。實驗結(jié)果表明,改進的分割網(wǎng)絡(luò)能有效分割脊椎MRI圖像。

        注:本文通訊作者為秦傳波。

        參考文獻

        [1] 吳旻昊,孫文超,閆飛飛,等.早發(fā)型脊柱側(cè)彎的治療研究與新進展[J].中國組織工程研究,2017,21(3):433?439.

        [2] 尹慶水.脊椎相關(guān)疾病研究現(xiàn)狀及面臨的挑戰(zhàn)[J].中國骨科臨床與基礎(chǔ)研究雜志,2014(2):69?72.

        [3] 顧菊平,程天宇,華亮,等.面向脊柱生物建模的圖像分割與配準研究綜述[J].系統(tǒng)仿真學(xué)報,2019,31(2):167?173.

        [4] RAMU S M, RAJAPPA M, KRITHIVASAN K, et al. A novel fast medical image segmentation scheme for anatomical scans [J]. Multimedia tools and applications, 2019, 78(15): 1?32.

        [5] 鈕圣虓,王盛,楊晶晶,等.完全基于邊緣信息的快速圖像分割算法[J].計算機輔助設(shè)計與圖形學(xué)學(xué)報,2016,24(11):1410?1419.

        [6] 李滾,劉歡,柯善群.脊椎圖像分割與椎體信息提取的算法及應(yīng)用[J].電子設(shè)計工程,2017,25(16):183?186.

        [7] 肖明堯,李雄飛,張小利,等.基于多尺度的區(qū)域生長的圖像分割算法[J].吉林大學(xué)學(xué)報(工學(xué)版),2017,47(5):1591?1597.

        [8] 曾鵬,王正勇,滕奇志.一種基于區(qū)域生長算法的脊椎椎體提取方法[J].科學(xué)技術(shù)與工程,2014,14(6):222?225.

        [9] GAO Huilin, DOU Lihua, CHEN Wenjie, et al. The applications of image segmentation techniques in medical CT images [EB/OL]. [2011?01?26]. https://www.researchgate.net/publication/252035024.

        [10] DOMINIK G, Gl?WKA P, KOTWICKI T, et al. Automatic spine tissue segmentation from MRI data based on cascade of boosted classifiers and active appearance model [EB/OL]. [2018?04?29]. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5949193/.

        [11] TIAN Yuan, GUAN Tao, WANG Cheng, et al. Interactive foreground segmentation method using mean shift and graph cuts [J]. Sensor review, 2009, 29(2): 157?162.

        [12] 葉偉,陶晶,陳小宇,等.一種新穎的MR脊柱圖像自動分割算法研究[J].中國醫(yī)療設(shè)備,2018,33(9):61?64.

        [13] LONG J, SHELHAMER E, DARRELL T. Fully convolutional networks for semantic segmentation [J]. IEEE transactions on pattern analysis & machine intelligence, 2014, 39(4): 640?651.

        [14] RONNEBERGER O, FISCHER P, BROX T. U?Net: convolutional networks for biomedical image segmentation [C]// MICCAI 2015: Medical Image Computing and Computer?Assisted Intervention. Munich, Germany: IEEE, 2015: 234?241.

        [15] HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Deep residual learning for image recognition [C]// 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas, NV, USA: IEEE, 2016: 770?778.

        [16] HUANG Gao, LIU Zhuang, VAN DER MAATEN L, et al. Densely connected convolutional networks [EB/OL]. [2018?01?28]. https://www.researchgate.net/publication/319770123.

        [17] LI Gen, YUN I, KIM J, et al. DABNet: depth?wise asymmetric bottleneck for real?time semantic segmentation [EB/OL]. [2019?07?26]. https://github.com/nemonameless/DABNet.

        [18] ZENG Zitao, XIE Weihao, ZHANG Yunzhe, et al. RIC?Unet: an improved neural network based on Unet for nuclei segmentation in histology images [J]. IEEE access, 2019, 7: 21420?21428.

        [19] 郭樹旭,馬樹志,李晶,等.基于全卷積神經(jīng)網(wǎng)絡(luò)的肝臟CT影像分割研究[J].計算機工程與應(yīng)用,2017,53(18):126?131.

        [20] 黃英來,劉亞檀,任洪娥.基于全卷積神經(jīng)網(wǎng)絡(luò)的林木圖像分割[J].計算機工程與應(yīng)用,2019,55(4):219?224.

        [21] 袁甜,程紅陽,陳云虹,等.基于U?Net網(wǎng)絡(luò)的肺部CT圖像分割算法[J].自動化與儀器儀表,2017(6):59?61.

        [22] 周魯科,朱信忠.基于U?Net網(wǎng)絡(luò)的肺部腫瘤圖像分割算法研究[J].信息與電腦(理論版),2018(5):41?44.

        [23] 潘沛克,王艷,羅勇,等.基于U?net模型的全自動鼻咽腫瘤MR圖像分割[J].計算機應(yīng)用,2019,39(4):1183?1188.

        [24] 劉忠利,陳光,單志勇,等.基于深度學(xué)習(xí)的脊柱CT圖像分割[J].計算機應(yīng)用與軟件,2018,35(10):206?210.

        [25] EGGER J, NIMSKY C, KOLB A. Robust detection and segmentation for diagnosis of vertebral diseases using routine MR images [J]. Computer graphics forum, 2015, 33(6): 190?204.

        [26] EGGER J, ZUKI? D, FREISLEBEN B, et al. Segmentation of pituitary adenoma: a graph?based method vs. a balloon inflation method [J]. Computer methods and programs in biomedicine, 2013, 110(3): 268?278.

        作者簡介:梁淑芬(1975—),女,廣東江門人,碩士,副教授,主要研究方向為模式識別、信號處理與通信研究等。

        楊芳臣(1995—),男,江西宜春人,碩士,主要研究方向為圖像處理。

        秦傳波(1982—),男,安徽宿州人,博士,講師,主要研究方向為生物特征識別、醫(yī)學(xué)影像處理。

        猜你喜歡
        特征提取
        特征提取和最小二乘支持向量機的水下目標識別
        基于Gazebo仿真環(huán)境的ORB特征提取與比對的研究
        電子制作(2019年15期)2019-08-27 01:12:00
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        基于DNN的低資源語音識別特征提取技術(shù)
        Bagging RCSP腦電特征提取算法
        一種基于LBP 特征提取和稀疏表示的肝病識別算法
        基于DSP的直線特征提取算法
        基于改進WLD的紋理特征提取方法
        計算機工程(2015年4期)2015-07-05 08:28:02
        淺析零件圖像的特征提取和識別方法
        機電信息(2015年3期)2015-02-27 15:54:46
        基于CATIA的橡皮囊成形零件的特征提取
        色欲av一区二区久久精品| 亚洲最大av资源站无码av网址 | 成人久久黑人中出内射青草| 97精品人人妻人人| 玩弄人妻少妇精品视频| 国产精品国产成人国产三级| 国产亚洲美女精品久久| 爆乳无码AV国内| 国产午夜精品久久精品| 国产日韩欧美一区二区东京热| 国产精品国产午夜免费看福利| 国产成人av在线影院无毒| 日韩人妻美乳中文字幕在线| 高潮精品熟妇一区二区三区| 亚洲中文字幕乱码第一页| 精品视频无码一区二区三区| 国产成人www免费人成看片| 午夜片无码区在线| 米奇亚洲国产精品思久久| 91色区在线免费观看国产| 国产成人无码18禁午夜福利p| 久久天天躁夜夜躁狠狠躁2022| 亚洲一二三四五区中文字幕 | 亚洲AV色欲色欲WWW| 亚洲精品乱码久久麻豆| 日本岛国一区二区三区四区| 激情综合色五月丁香六月欧美| 成人做爰69片免费看网站| 久久精品有码中文字幕1| 最新日本人妻中文字幕| www插插插无码视频网站| 欧美激情a∨在线视频播放| 国产大片中文字幕| 精品国产亚洲人成在线观看| 久久精品免费中文字幕| 国内精品久久久久影院一蜜桃 | 91精品91| 人妖啪啪综合av一区| 日日噜噜夜夜狠狠va视频| 无码 制服 丝袜 国产 另类| 日韩伦理av一区二区三区|