亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于超像素的聯(lián)合能量主動(dòng)輪廓CT圖像分割方法

        2020-01-17 01:57:00俠,甘權(quán),劉曉,王
        光電工程 2020年1期
        關(guān)鍵詞:分類方法

        劉 俠,甘 權(quán),劉 曉,王 波

        基于超像素的聯(lián)合能量主動(dòng)輪廓CT圖像分割方法

        劉 俠,甘 權(quán),劉 曉,王 波*

        哈爾濱理工大學(xué)自動(dòng)化學(xué)院,黑龍江 哈爾濱 150080

        為解決醫(yī)學(xué)CT圖像主動(dòng)輪廓分割方法中對(duì)初始輪廓敏感的問(wèn)題,提出一種基于超像素和卷積神經(jīng)網(wǎng)絡(luò)的人體器官CT圖像聯(lián)合能量函數(shù)主動(dòng)輪廓分割方法。該方法首先基于超像素分割對(duì)CT圖像進(jìn)行超像素網(wǎng)格化,并通過(guò)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行超像素分類確定邊緣超像素;然后提取邊緣超像素的種子點(diǎn)組成初始輪廓;最后在提取的初始輪廓基礎(chǔ)上,通過(guò)求解本文提出的綜合能量函數(shù)最小值實(shí)現(xiàn)人體器官分割。實(shí)驗(yàn)結(jié)果表明,本文方法與先進(jìn)的U-Net方法相比平均Dice系數(shù)提高5%,為臨床CT圖像病變?cè)\斷提供理論基礎(chǔ)和新的解決方案。

        CT圖像分割;超像素;卷積神經(jīng)網(wǎng)絡(luò);主動(dòng)輪廓模型

        1 引 言

        計(jì)算機(jī)斷層掃描(Computed tomography,CT)圖像擁有成像速度快、成像清晰等優(yōu)點(diǎn),CT圖像是評(píng)估人體最重要的醫(yī)學(xué)成像技術(shù)之一,已經(jīng)成為日常檢查的常用手段。人體CT掃描包含豐富的信息,如復(fù)雜的軟組織、骨、血管和多個(gè)器官。對(duì)于計(jì)算機(jī)輔助診斷,在CT圖像中分割感興趣區(qū)域(region of interest,ROI)是十分重要的前提條件。因此,尋求一種可以取代人工分割的自動(dòng)CT圖像方法是當(dāng)務(wù)之急。

        在之前的研究中,研究學(xué)者已經(jīng)提出了閾值分割、基于區(qū)域方法、輪廓和形狀分割等方法來(lái)進(jìn)行器官分割。閾值分割是以像素點(diǎn)灰度為分割依據(jù)的經(jīng)典方法,Moltz[1]將閾值方法與形態(tài)學(xué)處理相結(jié)合,對(duì)肝臟腫瘤進(jìn)行了確切的分割,該方法不需要考慮空間特征,涉及計(jì)算少,但是對(duì)噪聲敏感。Chang[2]提出三維區(qū)域生長(zhǎng)方法完成了腎臟、脾臟和其他三個(gè)器官的分割,該方法取決于種子點(diǎn)的選擇,研究人員需要手動(dòng)選擇種子點(diǎn)來(lái)提高分割質(zhì)量。Klaus[3]提出了一種自適應(yīng)區(qū)域增長(zhǎng)方法,當(dāng)目標(biāo)不均勻時(shí)會(huì)造成分割不足。Masahiro[4]將主動(dòng)輪廓分割應(yīng)用于四種器官分割。主動(dòng)輪廓分割通常需要研究人員仔細(xì)選擇標(biāo)記為目標(biāo)和背景[5]的種子點(diǎn),且分割結(jié)果依賴于種子點(diǎn)的選擇。后續(xù)研究人員將模糊理論融入主動(dòng)輪廓模型中并提出基于模糊能量的主動(dòng)輪廓模型[6-8],此模型對(duì)噪聲和初始輪廓不敏感,可以實(shí)現(xiàn)快速收斂,但不能正確分割灰度不均勻圖像,CT圖像就屬于灰度不均勻圖像。

        近年來(lái)機(jī)器學(xué)習(xí)已廣泛應(yīng)用于醫(yī)學(xué)圖像的分割領(lǐng)域[9-11],最近,深度學(xué)習(xí)已經(jīng)顯示出自動(dòng)分類算法準(zhǔn)確度高、適應(yīng)性強(qiáng)的優(yōu)勢(shì)。卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)是深度人工神經(jīng)網(wǎng)絡(luò)的有效分支。同時(shí),某些特定的深度學(xué)習(xí)框架可用于分割[12-15]。Yu[16]使用基于CNN的方法實(shí)現(xiàn)了膀胱分割,Ronneberger[17]設(shè)計(jì)了U-Net來(lái)細(xì)分生物醫(yī)學(xué)圖像?;谌矸e神經(jīng)網(wǎng)絡(luò)(fully convolutional networks,F(xiàn)CN)的語(yǔ)義分割中,Milletari[18]提出V-Net用于3D體積醫(yī)學(xué)圖像分割的完全卷積神經(jīng)網(wǎng)絡(luò),該網(wǎng)絡(luò)在分割精度方面有所提高但收斂速度慢,十分耗時(shí)。

        綜上,本文提出一種全自動(dòng)的人體器官CT圖像分割方法,該方法最初基于超像素分割對(duì)CT圖像進(jìn)行超像素網(wǎng)格化,并通過(guò)卷積神經(jīng)網(wǎng)絡(luò)對(duì)產(chǎn)生的超像素進(jìn)行分類確定邊緣超像素;然后提取邊緣超像素的種子點(diǎn)組成初始輪廓;最后在提取的初始輪廓基礎(chǔ)上,通過(guò)求解本文提出的綜合能量函數(shù)最小值實(shí)現(xiàn)CT圖像中器官的分割。

        2 本文方法

        本文提出的人體器官CT圖像分割方法流程如圖1所示。該方法對(duì)CT圖像超像素網(wǎng)格進(jìn)行邊緣超像素分類并提取種子點(diǎn)初始輪廓。之后,在提取的初始輪廓上迭代求解本文改進(jìn)的綜合能量函數(shù)最小值,實(shí)現(xiàn)CT圖像中人體器官分割。

        2.1 超像素分割

        算法1 SLIC超像素分割

        Step1:初始化

        2) 初始化每個(gè)種子點(diǎn)鄰域內(nèi)的像素點(diǎn)類標(biāo)簽()=-1,()=¥。

        Step2:重復(fù)

        圖1 本文方法示意圖

        Step3:更新

        計(jì)算新的種子點(diǎn);

        計(jì)算殘差;

        直到£閾值。

        其中:是用于衡量該測(cè)量中灰度信息和空間信息的比例的平衡參數(shù),取=10。最后,根據(jù)計(jì)算的距離為每個(gè)簇分配一個(gè)單獨(dú)的標(biāo)簽。

        如圖2所示,圖2(a)、2(b)分別為=500與=2000時(shí),不同參數(shù)對(duì)肝臟CT圖像的網(wǎng)格化分割結(jié)果,圖2(a)中的超像素網(wǎng)格較大,不能很好地表示器官邊緣,圖2(b)中的超像素網(wǎng)格較小,可以較為細(xì)致的表示器官邊緣。

        2.2 超像素分類CNN

        圖像處理中正確分類一直是研究的熱點(diǎn)問(wèn)題,學(xué)者們先后提出過(guò)多種的分類方法,如Aadboost、隨機(jī)森林、支持向量機(jī)(SVM)、CNN。其中CNN是近年發(fā)展起來(lái),并引起廣泛重視的一種高效識(shí)別方法,對(duì)于圖像處理有出色表現(xiàn)。特別是在模式分類領(lǐng)域,由于該網(wǎng)絡(luò)避免了對(duì)圖像的復(fù)雜前期預(yù)處理,可以直接輸入原始圖像,因而得到了更為廣泛的應(yīng)用。本文提出的超像素分類CNN將超像素分為兩大類:器官邊緣超像素和非器官區(qū)邊緣超像素(如圖2(a)所示),分別標(biāo)記為1和0。超像素分類CNN如圖3所示,在卷積層后增加batch normalization(BN)層加快收斂速度。

        超像素分類CNN各層參數(shù)如表1所示。其中,soft-max層為二分類層,用于標(biāo)記邊緣超像素(標(biāo)記為1)和非邊緣超像素(標(biāo)記為0)。本文數(shù)據(jù)集的分辨率為512′512,超像素網(wǎng)格化后超像素大小為128′128。CNN輸入采用窗口滑動(dòng)輸入,滑動(dòng)窗口為64′64,通過(guò)多次滑動(dòng)直至數(shù)據(jù)集全部輸入網(wǎng)絡(luò)。

        圖2 不同參數(shù)K 的超像素網(wǎng)格化結(jié)果。(a) K=500 網(wǎng)格化結(jié)果;(b) K=2000 網(wǎng)格化結(jié)果

        圖3 超像素分類CNN網(wǎng)絡(luò)

        表1 超像素分類CNN網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)

        置為0.0005,動(dòng)量設(shè)置為0.9,平衡權(quán)重1,2分別為0.5和0.5,訓(xùn)練次數(shù)設(shè)置為1000次。最終,通過(guò)超像素分類CNN得到邊緣超像素。

        2.3 聯(lián)合能量主動(dòng)輪廓分割

        圖像分割即求取目標(biāo)區(qū)域邊界輪廓*,并將其轉(zhuǎn)化為求最小化的問(wèn)題。選擇邊緣超像素的種子點(diǎn)構(gòu)造初始輪廓,計(jì)算其相應(yīng)的符號(hào)距離函數(shù)0。從初始化0開(kāi)始,對(duì)于?進(jìn)行遍歷,通過(guò)式(5)更新,并使用梯度下降法通過(guò)式(6)求解的最小值S

        使用梯度下降法迭代更新每個(gè)像素的符號(hào)距離函數(shù),與邊界具有一對(duì)一的映射關(guān)系,最終的*產(chǎn)生最終輪廓*。一旦已知*,通過(guò)映射關(guān)系就可以得到L。該映射如下:

        經(jīng)過(guò)上述計(jì)算得到目標(biāo)區(qū)域的分割輪廓,但是在輪廓演化的過(guò)程中可能使分割輪廓粗糙。本文最后使用形態(tài)學(xué)開(kāi)操作、閉操作來(lái)平滑分割輪廓曲線。

        綜上所述,本文提出的基于超像素的聯(lián)合能量主動(dòng)輪廓CT圖像分割方法,具體實(shí)現(xiàn)步驟如下:

        Step1:導(dǎo)入訓(xùn)練集后,對(duì)圖像進(jìn)行超像素網(wǎng)格化;

        Step2:構(gòu)建超像素分類CNN,將Step1中產(chǎn)生的超像素分類為器官邊緣超像素和非器官邊緣超像素并標(biāo)記;

        Step3:提取被標(biāo)記為器官邊緣區(qū)域超像素的種子點(diǎn)并將種子點(diǎn)組成一個(gè)閉合輪廓,作為分割初始輪廓;

        Step4:根據(jù)式(3)、式(4)定義聯(lián)合邊緣能量的主動(dòng)

        輪廓分割能量函數(shù),并初始化參數(shù);

        Step5:以Step3得到的閉合輪廓構(gòu)造初始輪廓計(jì)算0;

        Step6:使用梯度下降法根據(jù)式(6)更新距離符號(hào)函數(shù);

        Step7:重復(fù)Step6,直至遍歷全部像素,計(jì)算最小*;

        Step8:將Step7計(jì)算的最小*按式(8)的一一對(duì)應(yīng)關(guān)系映射分割邊界*;

        Step9:將Step8獲得的分割邊界曲線*進(jìn)行形態(tài)學(xué)開(kāi)操作、形態(tài)學(xué)閉操作來(lái)平滑分割輪廓曲線,得到最后的分割結(jié)果。

        3 實(shí)驗(yàn)結(jié)果與分析

        3.1 實(shí)驗(yàn)數(shù)據(jù)及評(píng)價(jià)指標(biāo)

        為全面評(píng)估本文方法對(duì)醫(yī)學(xué)CT圖像的分割效果,本文主要對(duì)四類器官CT圖像進(jìn)行分割實(shí)驗(yàn),包括:腦部CT圖像、肝臟CT圖像、肺部CT圖像、椎骨CT圖像。本文實(shí)驗(yàn)所用數(shù)據(jù)如表2所示。

        本文分割算法實(shí)驗(yàn)環(huán)境為Intel(R) Core(TM) 3.4 GHz CPU、32 GB RAM、16 GHz GPU、opencv32,caffe、Python3.5。分割結(jié)果評(píng)價(jià)指標(biāo)分別為相關(guān)系數(shù)(Jaccard),重疊系數(shù)(Dice)和正確的分類系數(shù)(correct classification ration,CCR)(CCR)對(duì)本文提出的方法進(jìn)行科學(xué)的評(píng)價(jià)。評(píng)價(jià)指標(biāo)計(jì)算公式如下:

        其中:SEG表示算法的分割結(jié)果,GT表示手動(dòng)分割結(jié)果,即標(biāo)準(zhǔn)的參考結(jié)果,CPN表示正確分割的超像素個(gè)數(shù),INP表示圖像像素總個(gè)數(shù)。三種指標(biāo)系數(shù)的取值范圍均為0到1,越接近1表示分割效果越好。

        表3 定量實(shí)驗(yàn)分割結(jié)果

        表2 數(shù)據(jù)表

        圖4 定量實(shí)驗(yàn)分割結(jié)果圖(從上到下分別為腦部、肝臟、肺部及椎骨的分割結(jié)果)

        3.2 定量實(shí)驗(yàn)分析

        3.2.1聯(lián)合能量主動(dòng)輪廓分割對(duì)實(shí)驗(yàn)結(jié)果的影響

        將CNN得到的邊緣超像素進(jìn)行種子點(diǎn)提取,組成初始輪廓,并通過(guò)求解聯(lián)合能量函數(shù)最小值尋找分割邊界,最后用開(kāi)操作和閉操作進(jìn)行邊界平滑。本文算法與任意初始輪廓聯(lián)合能量主動(dòng)輪廓算法和無(wú)能量邊緣函數(shù)的分割算法進(jìn)行對(duì)比,對(duì)比結(jié)果如表3和圖4所示。

        圖4給出了多個(gè)器官的分割結(jié)果,圖4(a)為原始CT圖像,圖4(b)為任意初始輪廓無(wú)邊緣能量項(xiàng)方法分割結(jié)果,該方法效果較差,基本不能完成CT圖像的器官分割。圖4(c)為具有邊緣能量項(xiàng)的任意初始輪廓的方法分割結(jié)果,該方法能夠很好的約束輪廓,迭代找到完整準(zhǔn)確地器官輪廓完成分割,不足的是有些非器官部位也被分割。圖4(d)為具有超像素邊緣初始輪廓無(wú)邊緣能量項(xiàng)方法分割結(jié)果,該方法能準(zhǔn)確找到器官位置,但器官周圍小部分相似組織被作為器官區(qū)域一起分割。圖4(e)為具有超像素邊緣初始輪廓且有邊緣能量項(xiàng)方法分割結(jié)果,該方法能夠準(zhǔn)確分割完成目標(biāo)區(qū)域的提取,但分割邊界不夠平滑。圖4(f)為本文方法分割結(jié)果,本文方法能夠正確分割目標(biāo)區(qū)域,通過(guò)后操作平滑邊界,分割結(jié)果最好。

        3.2.2邊緣超像素分類CNN對(duì)分割結(jié)果的影響

        本文提出的超像素分類CNN,與先進(jìn)的VGG-16[19]網(wǎng)絡(luò)進(jìn)行比較(本文將VGG-16最終的soft-max層改變二分類層,以適應(yīng)本文的二分類任務(wù)),對(duì)肺部CT圖像超像素的分類結(jié)果如圖5所示。

        本文超像素分類CNN對(duì)其他器官的邊緣超像素分類結(jié)果如圖6所示。本文在針對(duì)腦部CT斷層圖像邊緣超像素分類時(shí),首先進(jìn)行MRI與CT的圖像互相關(guān)歸一化配準(zhǔn)預(yù)處理,將待分割腦部CT圖像與參考MRI圖像進(jìn)行圖像配準(zhǔn)。本文提出的改進(jìn)的具有BN層的CNN在VGG-16的基礎(chǔ)上減少網(wǎng)絡(luò)層數(shù),加入批量歸一化的BN層,在80次迭代時(shí),準(zhǔn)確率和訓(xùn)練損失都趨于平穩(wěn)達(dá)到收斂狀態(tài),而不具有BN層的CNN網(wǎng)絡(luò),在110次迭代時(shí)其準(zhǔn)確率和訓(xùn)練損失逐漸達(dá)到平穩(wěn)收斂狀態(tài)。而對(duì)于VGG-16網(wǎng)絡(luò)在接近120次迭代時(shí)才趨于平穩(wěn)。達(dá)到收斂后,本文提出的超像素分類CNN在分類準(zhǔn)確性方面略高于VGG-16,邊緣超像素識(shí)別率達(dá)到95%左右。由此可知,在BN層的幫助下能夠?qū)崿F(xiàn)卷積神經(jīng)網(wǎng)絡(luò)的快速收斂。

        與VGG-16結(jié)果相比,本文提出的超像素分類CNN能夠?qū)δX、肝臟、肺部和椎骨等器官邊緣進(jìn)行準(zhǔn)確有效的分類,準(zhǔn)確率提高8%,確定器官邊緣大致位置,為下一步進(jìn)行輪廓分割,提供先驗(yàn)知識(shí)信息。與VGG-16相比,本文提出的超像素分類CNN網(wǎng)絡(luò)層數(shù)較少,更方便搭建、訓(xùn)練和測(cè)試,具有更大優(yōu)勢(shì)。

        3.2.3值對(duì)實(shí)驗(yàn)結(jié)果的影響

        為超像素的個(gè)數(shù)參數(shù),的大小決定著超像素網(wǎng)格的數(shù)量和大小,越大則超像素尺寸越小,無(wú)法表現(xiàn)出足夠的信息特征,越小則超像素尺寸越大,增加圖像信息的復(fù)雜性,產(chǎn)生過(guò)度貼合現(xiàn)象。如圖7所示,本文對(duì)不同值進(jìn)行實(shí)驗(yàn)值范圍在0~2500之間每隔500取一次,邊緣超像素CNN分類準(zhǔn)確度在=1000后明顯上升直到=2000后又下降。顯然,當(dāng)?shù)闹禐?000時(shí),CNN對(duì)邊緣超像素分類準(zhǔn)確性最高,因此本文選擇選擇的值為2000。

        3.3 實(shí)驗(yàn)結(jié)果及對(duì)比

        3.3.1本文實(shí)驗(yàn)結(jié)果

        本文方法得到的各器官CT圖像分割結(jié)果如圖8所示,圖8(a)~8(d)分別為腦部、肝臟、肺部和椎骨CT圖像分割結(jié)果,自左到右分別為原始CT圖、SLIC-CNN分類后的邊緣超像素和初始輪廓、最終分割結(jié)果;圖8(e)為局部放大圖像。其中黃色為超像素分類CNN得到的邊緣超像素,藍(lán)色為邊緣超像素種子點(diǎn)提取的分割初始輪廓,白色為本文方法得到的最終分割結(jié)果。本文方法得到各類器官CT圖像分割評(píng)價(jià)指標(biāo)計(jì)算結(jié)果如表4所示。

        超像素分類CNN對(duì)于CT圖像超像素的分類取得了較理想的結(jié)果,分類準(zhǔn)確度可達(dá)92%,本文提取的超像素種子點(diǎn)組成的初始輪廓接近于器官邊緣,在接下來(lái)的基于綜合能量函數(shù)的求解過(guò)程中節(jié)省了大量的時(shí)間。對(duì)于腦、肝臟、肺部和椎骨的目標(biāo)圖像分割,本文方法能夠準(zhǔn)確地定位邊緣超像素并完整提取邊緣超像素種子點(diǎn)構(gòu)造初始輪廓,通過(guò)最小化改進(jìn)的綜合能量函數(shù)求取分割輪廓,完成分割。本文方法對(duì)四類器官分割結(jié)果Dice系數(shù)在94%左右,分割一張512′512大小的CT切片圖像僅需要25 s,在保證分割準(zhǔn)確度的基礎(chǔ)上,分割速度較快。

        3.3.2 不同方法對(duì)比實(shí)驗(yàn)分析

        本文方法使用與各文獻(xiàn)中相同的CT圖像進(jìn)行分割,其結(jié)果對(duì)比分析如表5。

        在腦CT圖像分割中,本文和文獻(xiàn)[21]均使用輪廓分割方法,文獻(xiàn)[21]需人機(jī)交互操作而本文方法在保證分割準(zhǔn)確度的同時(shí)完成自動(dòng)分割,由于邊緣超像素種子點(diǎn)初始輪廓接近最終分割結(jié)果,減少了迭代計(jì)算時(shí)間。在椎骨CT圖像分割中,文獻(xiàn)[22]提出基于Canny邊緣+隨機(jī)森林強(qiáng)度回歸方法,邊緣檢測(cè)和隨機(jī)森林回歸消耗了大量時(shí)間,與之相比,本文方法分割速度提高2.5倍,在分割準(zhǔn)確度上略小于該方法,但也在可以接受范圍內(nèi)。在肝臟和肺部CT圖像中,文獻(xiàn)[23]首先超像素網(wǎng)格化,接著SVM進(jìn)行超像素分類,最終用CNN完成分類分割。而本文使用超像素和CNN直接進(jìn)行超像素分類提取初始輪廓結(jié)合改進(jìn)的聯(lián)合能量函數(shù)主動(dòng)輪廓分割提高了分割準(zhǔn)確度,同時(shí)比文獻(xiàn)[23]方法耗時(shí)縮短10 s。與U-Net方法相比,本文方法在肝臟分割結(jié)果上準(zhǔn)確率提高5%以上。在同一數(shù)據(jù)集上,各文獻(xiàn)結(jié)果與本文方法分割結(jié)果如圖9所示,可以發(fā)現(xiàn)與不同研究者的分割結(jié)果相比,本文的結(jié)果基本令人滿意。

        圖5 CNN分類準(zhǔn)確度和訓(xùn)練損失

        圖6 超像素分類CNN邊緣超像素分類結(jié)果

        圖7 K不同取值對(duì)CNN分類準(zhǔn)確度影響

        圖8 本文方法分割結(jié)果。

        表4 分割結(jié)果各評(píng)價(jià)指標(biāo)

        表5 不同方法對(duì)比實(shí)驗(yàn)結(jié)果

        圖9 不同方法對(duì)比實(shí)驗(yàn)結(jié)果

        4 結(jié) 論

        本文提出了基于超像素的聯(lián)合能量主動(dòng)輪廓CT圖像分割方法,用于多種CT掃描圖像的分割。通過(guò)超像素網(wǎng)格化和分類CNN得到邊緣超像素,選擇超像素種子點(diǎn)組成聯(lián)合能量主動(dòng)輪廓分割的初始輪廓,降低初始輪廓敏感性,使主動(dòng)輪廓分割得到改善,減少分割耗時(shí)。用本文方法對(duì)包括腦、肝臟、肺部和椎骨的數(shù)據(jù)集進(jìn)行分割??傮w來(lái)說(shuō),本文方法在保證分割精度的同時(shí)減少了分割耗時(shí),提高了效率。在后續(xù)研究中,將致力于在其他類型醫(yī)學(xué)圖像上測(cè)試這個(gè)框架,如MRI圖像和超聲圖像。同時(shí)我們也期待提高準(zhǔn)確性和效率,將框架納入可以使患者受益的臨床診斷中。

        [1] Moltz J H, Bornemann L, Dicken V,. Segmentation of liver metastases in CT scans by adaptive thresholding and morphological processing[C]//(), 2008, 472: 195–222.

        [2] Chang Y L, Li X B. Adaptive image region-growing[J]., 1994, 3(6): 868–872.

        [3] Pohle R, Toennies K D. Segmentation of medical images using adaptive region growing[J]., 2001, 4322: 1337–1346.

        [4] Oda M, Nakaoka T, Kitasaka T,. Organ segmentation from 3D abdominal CT images based on atlas selection and graph cut[C]//:, 2012, 7029: 181–188.

        [5] Criminisi A, Shotton J, Robertson D,. Regression forests for efficient anatomy detection and localization in CT studies[C]//, 2011: 106–117.

        [6] Tang L M, Tian X Q, Huang D R,. Image segmentation model combined with FCMS and variational level set[J]., 2014, 40(6): 1233–1248.

        唐利明, 田學(xué)全, 黃大榮, 等. 結(jié)合FCMS與變分水平集的圖像分割模型[J]. 自動(dòng)化學(xué)報(bào), 2014, 40(6): 1233–1248.

        [7] Chen K, Li B, Tian L F. A segmentation algorithm of pulmonary nodules using active contour model based on fuzzy speed function[J]., 2013, 39(8): 1257–1264.

        陳侃, 李彬, 田聯(lián)房. 基于模糊速度函數(shù)的活動(dòng)輪廓模型的肺結(jié)節(jié)分割[J]. 自動(dòng)化學(xué)報(bào), 2013, 39(8): 1257–1264.

        [8] Sun W Y, Dong E Q, Cao Z L,. A robust local segmentation method based on fuzzy-energy based active contour[J]., 2017, 43(4): 611–621.

        孫文燕, 董恩清, 曹祝樓, 等. 一種基于模糊主動(dòng)輪廓的魯棒局部分割方法[J]. 自動(dòng)化學(xué)報(bào), 2017, 43(4): 611–621.

        [9] Jones J L, Xie X H, Essa E. Combining region-based and imprecise boundary-based cues for interactive medical image segmentation[J]., 2014, 30(12): 1649–1666.

        [10] Tah A A, Hanbury A. Metrics for evaluating 3D medical image segmentation: analysis, selection, and tool[J]., 2015, 15(1): 29.

        [11] Criminisi A, Robertson D, Konukoglu E,. Regression forests for efficient anatomy detection and localization in computed tomography scans[J]., 2013, 17(8): 1293–1303.

        [12] Shin H C, Orton M R, Collins D J,. Stacked autoencoders for unsupervised feature learning and multiple organ detection in a pilot study using 4D patient data[J]., 2013, 35(8): 1930–1943.

        [13] Wang Z, Yang J. Automated detection of diabetic retinopathy using deep convolutional neural networks[J]., 2016, 43(6): 3406.

        [14] Kooi T, Litjens G, Van Ginneken B,. Large scale deep learning for computer aided detection of mammographic lesions[J]., 2017, 35: 303–312.

        [15] Tao Y P, Jing Y, Xu C. CT image segmentation method combining superpixel and CNN[J]., 2019: 1–8.

        陶永鵬, 景雨, 頊聰. 融合超像素和CNN的CT圖像分割方法[J]. 計(jì)算機(jī)工程與應(yīng)用, 2019: 1–8.

        [16] Yu L Q, Yang X, Hao C,. Volumetric ConvNets with mixed residual connections for automated prostate segmentation from 3D MR images[C]//(), 2017: 66–72.

        [17] Sevastopolsky A. Optic disc and cup segmentation methods for glaucoma detection with modification of U-Net convolutional neural network[J]., 2017, 27(3): 618–624.

        [18] Milletari F, Navab N, Ahmadi S A. V-Net: fully convolutional neural networks for volumetric medical image segmentation[C]//(), 2016: 565–571.

        [19] Ren M. Learning a classification model for segmentation[C]//, 2003: 10–17.

        [20] Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition[Z]. arXiv:1409.1556, 2015.

        [21] Aghaei F, Ross S R, Wang Y Z,. Implementation of a computer-aided detection tool for quantification of intracranial radiologic markers on brain CT images[C]//, 2017: 10138.

        [22] Korez R, Ibragimov B, Likar B,. Interpolation-based shape-constrained deformable model approach for segmentation of vertebrae from CT spine images[C]//, 2015: 235–240.

        [23] Liu X M, Guo S X, Yang B T,. Automatic organ segmentation for CT scans based on super-pixel and convolutional neural networks[J]., 2018, 31(5): 748–760.

        Joint energy active contour CT image segmentation method based on super-pixel

        Liu Xia, Gan Quan, Liu Xiao, Wang Bo*

        School of Automation, Harbin University of Science and Technology, Harbin, Heilongjiang 150080, China

        Schematic of the method in this paper

        Overview:Computed tomography images have the advantage of fast imaging speed and sharp imaging. CT images are one of the most important medical imaging techniques for human evaluation and it has become a conventional means of daily inspection. For computer-aided diagnosis, interest towards segmentation of regions in CT images is an essential prerequisite. Therefore, it is imperative to seek an automatic CT image method that can replace manual segmentation. This paper presents a fully automated CT image segmentation method for human organs. Firstly, super-pixel meshing is performed on CT images based on the super-pixel segmentation, and super-pixel classification is performed by a convolutional neural network to determine edge super-pixels. Then, seed points of edge super-pixels are extracted to form initial contours. Finally, the initial contour is obtained based on the extraction by solving the minimum of the integrated energy function proposed herein. In order to comprehensively evaluate the segmentation effect of this method on medical CT images, this paper mainly divides CT image experiments into four organs, including the brain, liver, lungs, and vertebral body. The experimental results show that the super-pixel classification CNN has achieved excellent results in the super-pixel classification of CT images. The classification accuracy reaches 92%. The initial contour of the super-pixel seed points extracted in this paper is close to the organ edge, and the next contour based on a significant amount of time is stored in the solution of the integrated energy function. For the target image segmentation of brain, liver, lung, and vertebrae, the proposed method can accurately locate the edge super-pixels that completely extract the initial contour of the edge super-pixel seed point structure, and complete the segmentation contour subdivision by minimizing the improved integrated energy function. Compared with the advanced U-net method, the average Dice coefficient of the proposed method increase by 5%. It may provide a theoretical basis and a new solution for the diagnosis of clinical CT image lesions. In general, this approach can reduce time and improve efficiency while ensuring segmentation accuracy. In the future study, efforts would be made to test the framework on other types of medical images, such as MRI images and ultrasound images. At the same time, we also look forward to improving accuracy and efficiency and incorporating this framework into clinical diagnostics that benefit patients.

        Citation: Liu X, Gan Q, Liu X,Joint energy active contour CT image segmentation method based on super-pixel[J]., 2020, 47(1): 190104

        Supported by National Natural Science Foundation of China (61172167) and Heilongjiang Natural Science Foundation (QC2017076)

        * E-mail: hust_wb@126.com

        Joint energy active contour CT image segmentation method based on super-pixel

        Liu Xia, Gan Quan, Liu Xiao, Wang Bo*

        School of Automation, Harbin University of Science and Technology, Harbin, Heilongjiang 150080, China

        In this paper, an active contour segmentation method for organs CT images based on super-pixel and convolutional neural network is proposed to solve the sensitive problem of the initial contour of the segmentation method of the CT image. The method firstly super-pixels the CT image based on super-pixel segmentation and determines the edge super-pixels by the super-pixel classification through a convolutional neural network. Afterwards, the seed points of the edge super-pixels are extracted to form the initial contour. Finally, based on the extracted initial contour, the human organ segmentation is realized by solving the minimum value of the integrated energy function proposed in this paper. The results in this paper show that the average Dice coefficient is improved by 5% compared with the advanced U-Net method, providing a theoretical basis and a new solution for the diagnosis of clinical CT image lesions.

        CT segmentation; super-pixel; convolutional neural network (CNN); active contour method

        TP391.41

        A

        劉俠,甘權(quán),劉曉,等. 基于超像素的聯(lián)合能量主動(dòng)輪廓CT圖像分割方法[J]. 光電工程,2020,47(1): 190104

        10.12086/oee.2020.190104

        : Liu X, Gan Q, Liu X,. Joint energy active contour CT image segmentation method based on super-pixel[J]., 2020,47(1): 190104

        2019-03-12;

        2019-05-17基金項(xiàng)目:國(guó)家自然科學(xué)基金資助項(xiàng)目(61172167);黑龍江省自然科學(xué)基金資助項(xiàng)目(QC2017076)

        劉俠(1975-),男,博士,教授,碩士生導(dǎo)師,主要從事模式識(shí)別,圖像處理的研究。E-mail:liuxia@hrbust.edu.cn

        王波(1982-),男,博士,副教授,碩士生導(dǎo)師,主要從事模式識(shí)別、機(jī)器學(xué)習(xí)、醫(yī)學(xué)影像分析與處理,以及自然語(yǔ)言處理等研究。E-mail:hust_wb@126.com

        猜你喜歡
        分類方法
        分類算一算
        垃圾分類的困惑你有嗎
        大眾健康(2021年6期)2021-06-08 19:30:06
        學(xué)習(xí)方法
        分類討論求坐標(biāo)
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        可能是方法不對(duì)
        用對(duì)方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        賺錢方法
        国产蜜桃传媒在线观看| 极品熟妇大蝴蝶20p| 国产成人精品麻豆| 黄色中文字幕视频网站| 无遮挡很爽很污很黄的女同| 日本黄网站三级三级三级| 免费一级特黄欧美大片久久网 | 国产精品av在线| 亚洲男人天堂| 亚洲人成网站在线播放小说| 日韩精品久久午夜夜伦鲁鲁| 粗大的内捧猛烈进出少妇| 亚洲日韩∨a无码中文字幕| 亚洲色四在线视频观看| 日日麻批免费高清视频| 小辣椒福利视频导航| 国产精品久久久久久麻豆一区| 久久久久久人妻一区二区无码Av| 日韩精品中文字幕一区二区| 亚洲中文字幕无码av| 国产精品半夜| 视频一区中文字幕亚洲| 精品日韩一级免费视频| 人妻少妇久久中文字幕一区二区| 国产av成人精品播放| 亚洲日本国产一区二区三区| 嫩草伊人久久精品少妇av| 久久人人玩人妻潮喷内射人人| 青草蜜桃视频在线观看| 精品人妻一区二区三区狼人| 亚洲国产精品无码中文字| 国产精品调教| 中文字幕亚洲精品高清| 日本孕妇潮喷高潮视频| 成人精品综合免费视频| 亚州五十路伊人网| 亚洲美女毛多水多免费视频| 亚洲熟女一区二区三区| 加勒比精品久久一区二区三区| 国产精品自拍视频免费观看 | 少妇无码吹潮|