朱鍇 付忠良 陳曉清
摘 要:超聲圖像左心室的分割在臨床上對(duì)醫(yī)生的作用巨大。由于超聲圖像含有大量噪聲,輪廓特征不明顯,目前的卷積神經(jīng)網(wǎng)絡(luò)(CNN)方法對(duì)左心室分割容易得到不必要的區(qū)域,并且分割目標(biāo)不完整。為了解決上述問題,在全卷積神經(jīng)網(wǎng)絡(luò)(FCNFCN的縮寫對(duì)嗎?不是FCNN嗎?請(qǐng)明確。)基礎(chǔ)上加入了關(guān)鍵點(diǎn)定位和求取圖像凸包方法對(duì)分割結(jié)果進(jìn)行優(yōu)化。首先采用FCN獲取初步的分割結(jié)果;然后為了去除分割結(jié)果中的錯(cuò)誤區(qū)域,提出一種CNN定位左心室三個(gè)關(guān)鍵點(diǎn)的位置,通過關(guān)鍵點(diǎn)篩選掉分割結(jié)果中不必要的區(qū)域;最后為保證剩余區(qū)域能夠組合成一個(gè)完整的心室,利用求取圖像凸包算法將所有有效區(qū)域進(jìn)行合并。實(shí)驗(yàn)結(jié)果表明,在超聲圖像左心室分割效果上,所提方法能夠在普通FCN的基礎(chǔ)上獲得很大的提升,在交并比評(píng)價(jià)標(biāo)準(zhǔn)下,該方法獲取的左心室結(jié)果能夠比傳統(tǒng)CNN方法提升近15%。
Abstract:Ultrasound image segmentation of left ventricle is very important for doctors in clinical practice. As the ultrasound images contain a lot of noise and the contour features are not obvious, current Convolutional Neural Network (CNN) method is easy to obtain unnecessary regions in left ventricular segmentation, and the segmentation regions are incomplete. In order to solve these problems, keypoint location and image convex hull method were used to optimize segmentation results based on Fully Convolutional neural Network (FCN). Firstly, FCN was used to obtain preliminary segmentation results. Then, in order to remove erroneous regions in segmentation results, a CNN was proposed to locate three keypoints of left ventricle, by which erroneous regions were filtered out. Finally, in order to ensure that the remained area were able to be a complete ventricle, image convex hull algorithm was used to merge all the effective areas together. The experimental results show that the proposed method can greatly improve left ventricular segmentation results of ultrasound images based on FCN. Under the evaluation standard, the accuracy of results obtained by this method can be increased by nearly 15% compared with traditional CNN method.
Key words: ultrasound image; segmentation; keypoint location; Convolutional Neural Network (CNN); convex hull
0 引言
心臟超聲圖像是臨床醫(yī)學(xué)上評(píng)估患者心臟狀況的主要手段之一,其中左心室的大小是判斷心臟是否正常的重要生理參數(shù)。一般來說醫(yī)生通過在超聲圖像上手動(dòng)描繪左心室輪廓來計(jì)算左心室容積大小,由于手動(dòng)描繪輪廓很繁瑣,在術(shù)中十分不便,因此設(shè)計(jì)一種全自動(dòng)的分割算法能給醫(yī)生帶來極大的便利,但目前由于超聲圖像存在如下幾個(gè)分割難點(diǎn):一是相對(duì)于其他醫(yī)學(xué)圖像,超聲圖像中存在巨大的斑點(diǎn)噪聲,為圖像分割帶來了很大的干擾;二是每位患者的生理結(jié)構(gòu)雖然大體類似,但是個(gè)體差異帶來的生理結(jié)構(gòu)不規(guī)則變化為分割增加了挑戰(zhàn)。
圖像分割技術(shù)在醫(yī)學(xué)圖像中應(yīng)用很廣泛,通過對(duì)關(guān)鍵區(qū)域的分割提取,能夠獲取病人重要生理結(jié)構(gòu)的形狀、大小等信息。傳統(tǒng)醫(yī)學(xué)圖像分割方案通常先對(duì)圖像進(jìn)行預(yù)處理,后采用算法對(duì)目標(biāo)區(qū)域分割。傳統(tǒng)醫(yī)學(xué)圖像分割方法通常分為利用單幅圖像本身特征進(jìn)行的分割方法和采用帶標(biāo)注數(shù)據(jù)集訓(xùn)練的方法。通常兩種方法均需要手工提取圖像局部特征來對(duì)像素進(jìn)行聚類或分類。在前一類方法中,有學(xué)者采用基于更為快速的基于區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)(Faster Region-based Convolutional Neural Network, Faster RCNN)結(jié)合均值漂移算法的方法對(duì)超聲圖像左心室進(jìn)行提取[1],也有學(xué)者采用規(guī)范化切割結(jié)合K均值算法對(duì)乳房病變區(qū)域進(jìn)行定位[2],還有學(xué)者采用局部高斯分布擬合能量模型對(duì)超聲圖像進(jìn)行定位[3]。此類算法雖然簡(jiǎn)單,不需要依賴其他圖像便可完成,但由于算法僅僅從單一圖像提取特征進(jìn)行分割,圖像魯棒性較差,對(duì)圖像質(zhì)量要求較高。后一類方法中,Jiang等[4]采用Haar特征結(jié)合AdaBoost方法對(duì)乳房超聲圖像進(jìn)行分割;Ngo等[5]采用水平集方法對(duì)心臟核磁共振圖像左心室進(jìn)行分割;也有學(xué)者利用關(guān)鍵點(diǎn)采用基于活動(dòng)輪廓模型的方法對(duì)目標(biāo)區(qū)域進(jìn)行定位[6-7]。此類方法較為依賴手工特征的選取,并且基于輪廓的方法需要有較好的初始位置選取。
近年來,由于深度學(xué)習(xí)具有不需要手動(dòng)設(shè)計(jì)特征等優(yōu)勢(shì),該方法在圖像分類上的成功也帶動(dòng)了將其在圖像分割的運(yùn)用。2014年Long等[8]首次將深度卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)運(yùn)用于圖像分割上,提出了一種全卷積的神經(jīng)網(wǎng)絡(luò)(Fully Convolutional neural Network, FCN),該方法對(duì)圖像中每個(gè)像素進(jìn)行類別預(yù)測(cè)實(shí)現(xiàn)像素級(jí)別的語義分割,并取得了很好的效果,后有大量學(xué)者對(duì)FCN進(jìn)行改進(jìn),并在自然圖像上得到了有效的驗(yàn)證[9-10]。隨著深度學(xué)習(xí)在自然圖像上的成功,有研究者改進(jìn)FCN提出了U-Net補(bǔ)充U-Net全稱?;貜?fù)無全稱對(duì)生物醫(yī)學(xué)圖像進(jìn)行分割,盡可能地保留了圖像的細(xì)節(jié)[11],也有學(xué)者將FCN結(jié)合條件隨機(jī)場(chǎng)對(duì)大腦電子計(jì)算機(jī)斷層掃描圖像進(jìn)行分割,能夠有效地對(duì)FCN粗糙的分割進(jìn)行補(bǔ)充[12]:Li等[13]提出了一種基于動(dòng)態(tài)CNN的方案對(duì)左心室輪廓進(jìn)行分割;詹曙等[14]采用反卷積神經(jīng)網(wǎng)絡(luò)分割核磁共振圖像,大幅減小了分割時(shí)間;Jafari等[15]使用U-Net結(jié)合長(zhǎng)短期記憶網(wǎng)絡(luò)對(duì)超聲心動(dòng)圖左心室進(jìn)行分割。但上述深度學(xué)習(xí)算法在運(yùn)用于心室分割中有如下問題:不同于其他醫(yī)學(xué)圖像,超聲圖像很多左心室邊界模糊,單純采用卷積神經(jīng)網(wǎng)絡(luò)獲取的結(jié)果很可能包含很多部分,而不是單一的左心室腔體,目前的區(qū)域篩選辦法主要是采用普通的閾值將較小的區(qū)域篩選掉,并沒有有效的篩選方法能選取想要進(jìn)行合并的區(qū)域。
為解決上述問題,本文提出了一種基于FCN的超聲圖像左心室分割方案,算法結(jié)合關(guān)鍵點(diǎn)定位對(duì)多余的區(qū)域進(jìn)行篩選,并對(duì)余下區(qū)域采用圖像求凸包算法進(jìn)行合并,最終得到左心室腔體。實(shí)驗(yàn)表明,本文算法能夠有效地對(duì)超聲圖像左心室進(jìn)行提取,與傳統(tǒng)的FCN算法相比,在評(píng)價(jià)標(biāo)準(zhǔn)上獲得更高的精度。
1 基于FCN的圖像分割算法
基于FCN的圖像分割算法是Long等[8]提出的,算法去除了普通CNN的全連接層,改用全卷積的網(wǎng)絡(luò)結(jié)構(gòu)對(duì)圖像每個(gè)像素進(jìn)行分類,達(dá)到了像素級(jí)別的分割效果。算法大體框架如圖1,網(wǎng)絡(luò)結(jié)構(gòu)將是根據(jù)VGG16[16]改進(jìn)的,首先將VGG(Visual Geometry Group)請(qǐng)補(bǔ)充VGG的英文全稱的全連接層改為卷積核大小為1×1的卷積層,將全連接層改為了圖中conv6和conv7。圖像首先經(jīng)過若干卷積層和池化層進(jìn)行降采樣,其中卷積層后采用線性整流函數(shù)(Rectified Linear Unit, ReLU)為激活函數(shù),池化層采用最大池化,后采用反卷積操作將圖像特征圖映射回原圖大小,并對(duì)每個(gè)像素類別進(jìn)行預(yù)測(cè),算法采用softmax損失函數(shù)。
本文采用全卷積網(wǎng)絡(luò)模型實(shí)現(xiàn)經(jīng)食道超聲四腔心切面左心室的初步分割,本文選取上采樣8倍的FCN對(duì)左心室分割,將圖像大小縮放為3×256×256作為輸入。
2 利用關(guān)鍵點(diǎn)輔助FCN的左心室提取
2.1 左心室關(guān)鍵點(diǎn)定位
由于采用FCN網(wǎng)絡(luò)得到的分割結(jié)果對(duì)于某些心室超聲圖像會(huì)包含多個(gè)區(qū)域結(jié)果,為對(duì)這些區(qū)域是否為心室區(qū)域進(jìn)行篩選,本文提出了利用關(guān)鍵點(diǎn)定位對(duì)區(qū)域篩選的方法。在左心室結(jié)構(gòu)中,包含心尖、二尖瓣左右根部三個(gè)重要關(guān)鍵點(diǎn)的位置,為對(duì)這三個(gè)關(guān)鍵點(diǎn)的位置作粗略估計(jì),本文提出利用卷積神經(jīng)網(wǎng)絡(luò)回歸的方法對(duì)關(guān)鍵點(diǎn)的位置進(jìn)行定位。
如圖2所示,本文采用包含8個(gè)卷積層和2個(gè)全連接層的網(wǎng)絡(luò)進(jìn)行關(guān)鍵點(diǎn)定位,輸入圖像大小為256像素×256像素,經(jīng)過一系列卷積層和池化層的采樣之后,利用2個(gè)全連接層輸出3個(gè)關(guān)鍵點(diǎn)坐標(biāo)。由于本文定位關(guān)鍵點(diǎn)的位置是輔助圖像分割的,并不需要十分精確的關(guān)鍵位置也能夠達(dá)到輔助分割的效果。采用的損失函數(shù)為歐氏損失函數(shù),如式(1):
其中:E代表損失,N為樣本數(shù)目,為預(yù)測(cè)值,y為實(shí)際值。
2.2 分割區(qū)域篩選及合并
由于超聲圖像輪廓不清晰,實(shí)驗(yàn)數(shù)據(jù)量有限,在實(shí)驗(yàn)過程中利用FCN算法得到的結(jié)果可能包含的不是同一個(gè)區(qū)域,而是圖像中很多區(qū)域。為對(duì)這些區(qū)域進(jìn)行篩選和合并,本文采用關(guān)鍵點(diǎn)定位對(duì)區(qū)域進(jìn)行篩選,后采用圖像求凸算法對(duì)區(qū)域進(jìn)行合并。圖3展示了區(qū)域篩選的實(shí)例,假設(shè)圖3(a)為FCN分割得到的結(jié)果,圖3(b)為左心室標(biāo)簽和3個(gè)關(guān)鍵的位置,希望保留圖(a)的區(qū)域2和區(qū)域3,去除掉區(qū)域1,傳統(tǒng)的區(qū)域篩選算法僅僅通過區(qū)域大小設(shè)置閾值而刪除;但若FCN選取結(jié)果某些區(qū)域較大而且是錯(cuò)誤的,閾值去除區(qū)域辦法就將得到一些錯(cuò)誤的區(qū)域,并且在合并這些非連通區(qū)域時(shí)將得到更為糟糕的結(jié)果,為此本文提出的關(guān)鍵點(diǎn)定位算法能夠有效解決這種問題,如圖(b)所示,本文將定位的三個(gè)關(guān)鍵點(diǎn)所構(gòu)成的三角區(qū)域視為篩選區(qū)域,篩選時(shí)將和三角區(qū)域無交集的區(qū)域去除,這樣一來既能篩選掉不需要的大部分區(qū)域,還能保留離分割區(qū)域更為接近的區(qū)域。即使關(guān)鍵點(diǎn)定位無法達(dá)到精準(zhǔn)的情況下,大部分無關(guān)區(qū)域也能夠被剔除。
對(duì)于篩選過的區(qū)域,本文根據(jù)求凸算法[17]將剩下相關(guān)區(qū)域進(jìn)行合并,得到最終分割結(jié)果。如圖4所示2個(gè)區(qū)域合并的流程如下:
1)尋找待合并區(qū)域所有邊界點(diǎn),并確定所有關(guān)鍵點(diǎn)縱坐標(biāo)最小的P。
2)計(jì)算其余各點(diǎn)和P構(gòu)成直線與x軸正向的幅角,并將所有點(diǎn)按幅角大小α排序,α相同的離P近的排在前,即各點(diǎn)相對(duì)P按逆時(shí)針方向排序,則P后第一個(gè)點(diǎn)Ri+1位于凸包上,并將P、Ri+1入棧,按排序?qū)i+1后Ri+2入棧,Ri+2為棧頂元素。
3)計(jì)算當(dāng)前棧頂元素Ri+2和排序在棧頂元素的后一元素Ri+3構(gòu)成射線與Ri+2前的棧內(nèi)元素構(gòu)成射線位置關(guān)系,若為順時(shí)針旋轉(zhuǎn),則Ri+2出棧。
4)將Ri+3壓棧并視為棧頂元素,重復(fù)3)的操作到所有邊界點(diǎn)完成,棧內(nèi)元素即為最后圖像邊界點(diǎn)。
3 實(shí)驗(yàn)及分析
3.1 實(shí)驗(yàn)數(shù)據(jù)
實(shí)驗(yàn)數(shù)據(jù)采集自四川省某醫(yī)院麻醉科,共獲取四腔心切面圖像533張,其中248張圖像用于訓(xùn)練集制作,285張圖像用于測(cè)試集制作。所有圖像處理為256像素×256像素此句不通順,請(qǐng)作相應(yīng)調(diào)整。。訓(xùn)練集制作過程中除了將左心室輪廓制作標(biāo)簽,還將左心室心尖及兩個(gè)二尖瓣跟三個(gè)關(guān)鍵點(diǎn)位置標(biāo)注出。如圖5展示了訓(xùn)練集及標(biāo)簽樣例。
3.2 評(píng)價(jià)標(biāo)準(zhǔn)
本文主要采用了像素精度(Pixel Accuracy, PA)和像素交并比(Mean Intersection over Union, MIoU)對(duì)分割準(zhǔn)確度進(jìn)行度量,像素精度表達(dá)如式(2)所示:
其中:PT代表預(yù)測(cè)正確的像素?cái)?shù)目,PS代表總像素?cái)?shù)目。
像素交并比精度如式(3)所示:
其中:PT代表預(yù)測(cè)正確的像素?cái)?shù)目,PTF將正確標(biāo)記預(yù)測(cè)為背景的像素?cái)?shù)目,PFT代表將背景預(yù)測(cè)為心室的像素?cái)?shù)目。
由于預(yù)測(cè)類別只有一類,本文在評(píng)價(jià)標(biāo)準(zhǔn)中并未將背景加入計(jì)算,因?yàn)楸尘懊娣e較大,評(píng)價(jià)效果若將背景加入不能體現(xiàn)分割效果。
此外,由于左心室計(jì)算規(guī)則和預(yù)測(cè)區(qū)域面積有關(guān),本文還加入了預(yù)測(cè)區(qū)域和真實(shí)區(qū)域像素?cái)?shù)目誤差對(duì)比,如式(4)所示:
其中PP代表預(yù)測(cè)左心室像素?cái)?shù)目。
3.3 實(shí)驗(yàn)及結(jié)果
實(shí)驗(yàn)于Ubantu系統(tǒng)上進(jìn)行,代碼采用基于Caffe框架實(shí)現(xiàn)。在第一步訓(xùn)練FCN網(wǎng)絡(luò)過程中,本文選用VGG16在自然圖像分類結(jié)果的模型初始化網(wǎng)絡(luò)參數(shù),然后對(duì)網(wǎng)絡(luò)參數(shù)進(jìn)行訓(xùn)練微調(diào),學(xué)習(xí)率固定為10-14,訓(xùn)練輪次105,網(wǎng)絡(luò)采用帶動(dòng)量的優(yōu)化方法。在訓(xùn)練關(guān)鍵點(diǎn)網(wǎng)絡(luò)中,由于網(wǎng)絡(luò)參數(shù)數(shù)目較小,本文直接對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,學(xué)習(xí)率為10-3,迭代輪次104。
本文分別對(duì)比了僅僅采用FCN的分割結(jié)果,利用關(guān)鍵點(diǎn)輔助去除無關(guān)區(qū)域的結(jié)果,以及最后合并區(qū)域后的結(jié)果。圖6展示了基于FCN的幾種不同算法帶來的實(shí)驗(yàn)結(jié)果的樣例。圖中分別展示了原始圖像、標(biāo)注圖像、僅僅采用FCN的分割結(jié)果、利用FCN和凸化的結(jié)果和本文采用FCN結(jié)合關(guān)鍵點(diǎn)篩選區(qū)域最后合并的結(jié)果。從圖6中可以看出,僅僅采用FCN對(duì)目標(biāo)區(qū)域分割容易造成區(qū)域分散,不是同一個(gè)區(qū)域,并且有的結(jié)果容易包含無關(guān)區(qū)域,而從樣例1采用閾值篩選區(qū)域合并的結(jié)果和本文用關(guān)鍵點(diǎn)篩選區(qū)域帶來的結(jié)果看,僅僅用閾值篩選掉小的無關(guān)區(qū)域不能保證篩選掉所有無關(guān)區(qū)域。本文算法帶來的結(jié)果從視覺上更為接近真實(shí)標(biāo)注的結(jié)果。
表1展示了不同算法在評(píng)價(jià)標(biāo)準(zhǔn)下的結(jié)果。從表中看出,只采用FCN得到的結(jié)果遠(yuǎn)低于本文采用關(guān)鍵點(diǎn)篩選區(qū)域和凸化帶來的效果,而采用關(guān)鍵點(diǎn)篩選區(qū)域也比不采用關(guān)鍵點(diǎn)篩選區(qū)域帶來的效果要好。在只采用FCN時(shí)計(jì)算區(qū)域面積帶來的誤差也十分巨大,而采用了凸化及篩選之后大幅度減小了區(qū)域面積誤差。本文還對(duì)采用U-Net算法得到的結(jié)果進(jìn)行對(duì)比,在只采用U-Net的情況下,檢測(cè)精度比僅僅采用FCN網(wǎng)絡(luò)精度高,但由于U-Net獲取圖像較為完整,利用關(guān)鍵點(diǎn)檢測(cè)和凸化算法篩選合并區(qū)域后效果并不如改進(jìn)FCN精度高。
表2展示了基于FCN網(wǎng)絡(luò)的前提下采用本文關(guān)鍵點(diǎn)算法篩選區(qū)域和直接采用真實(shí)關(guān)鍵點(diǎn)標(biāo)簽來篩選區(qū)域帶來的結(jié)果。從表中可以看出預(yù)測(cè)關(guān)鍵點(diǎn)位置和真實(shí)關(guān)鍵點(diǎn)位置篩選區(qū)域效果相差不大。
此外,還采用了對(duì)數(shù)據(jù)進(jìn)行旋轉(zhuǎn)、對(duì)比度變換的數(shù)據(jù)增廣方式進(jìn)行訓(xùn)練,測(cè)試集圖像也采用擴(kuò)充后的圖像進(jìn)行實(shí)驗(yàn)。由于FCN在分割過程中得到的結(jié)果僅僅是初步結(jié)果,因此,如表3所示,可以看到采用擴(kuò)充后數(shù)據(jù)訓(xùn)練結(jié)果略微好于未采用數(shù)據(jù)擴(kuò)充帶來的結(jié)果。
表4展示了基于FCN網(wǎng)絡(luò)下程序的運(yùn)行時(shí)間,實(shí)驗(yàn)采用機(jī)器內(nèi)存大小為16GB,CPU為Intel Core i5-6600,顯卡為GTX Titan X。表中顯示了處理每張圖像所需平均耗時(shí)。從表4中看出,本文算法幾乎不需要額外花費(fèi)過多時(shí)間就能大幅度提高圖像分割精度。
4 結(jié)語
本文提出一種超聲圖像左心室輪廓提取方案,該方法通過心室關(guān)鍵點(diǎn)定位去除掉FCN網(wǎng)絡(luò)分割結(jié)果帶來的冗余區(qū)域,后再通過圖像凸化合并剩余區(qū)域的方法獲取左心室。實(shí)驗(yàn)中證明,結(jié)合圖像凸化算法能夠?qū)⒎指罱Y(jié)果大幅度優(yōu)化到更為接近真實(shí)結(jié)果;此外,關(guān)鍵點(diǎn)的定位篩選區(qū)域也能夠?qū)⒉糠諪CN錯(cuò)分的區(qū)域去除,免去了手動(dòng)設(shè)置閾值無法保證每幅圖像都能正確篩選的問題。本文提出的方案能夠有效克服全卷積神經(jīng)網(wǎng)絡(luò)在超聲圖像上分割單一目標(biāo)時(shí)的不足。
參考文獻(xiàn) (References)
[1] 朱鍇,付忠良,陶攀,等.基于自適應(yīng)均值漂移的超聲心動(dòng)圖左心室分割方法[J].生物醫(yī)學(xué)工程學(xué)雜志,2018,35(2):273-279.(ZHU K, FU Z, TAO P, et al. Left ventricle segmentation in echocardiography based on adaptive mean shift[J]. Journal of Biomedical Engineering, 2018, 35(2): 273-279.)
[2] SADEK I, ELAWADY M, STEFANOVSKI V. Automated breast lesion segmentation in ultrasound images[J]. ArXiv Preprint, 2016, 2016: 1609.08364.
[3] 朱永杰,邱天爽.基于改進(jìn)LGDF模型的超聲圖像自動(dòng)分割方法[J].大連理工大學(xué)學(xué)報(bào),2016,56(1):28-34.(ZHU Y J, QIU T S. Automated segmentation method for ultrasound image based on improved LGDF model[J]. Journal of Dalian University of Technology, 2016, 56(1):28-34.)
[4] JIANG P, PENG J, ZHANG G, et al. Learning-based automatic breast tumor detection and segmentation in ultrasound images[C]// Proceedings of the 2012 IEEE International Symposium on Biomedical Imaging. Piscataway, NJ: IEEE, 2012:1587-1590.
[5] NGO T A, LU Z, CARNEIRO G. Combining deep learning and level set for the automated segmentation of the left ventricle of the heart from cardiac cine magnetic resonance[J]. Medical Image Analysis, 2017, 35: 159-171.
[6] 紀(jì)祥虎,高思聰,黃志標(biāo),等. 基于Centripetal Catmull-Rom曲線的經(jīng)食道超聲心動(dòng)圖左心室分割方法[J]. 四川大學(xué)學(xué)報(bào)(工程科學(xué)版),2016,48(5):84-90.(JI X H, GAO S C, HUANG Z B, et al. Left ventricle segmentation in transesophageal echocardiography based on Centripetal Catmull-Rom curve[J]. Journal of Sichuan University (Engineering Science Edition), 2016, 48(5): 84-90.)
[7] VARGAS-QUINTERO L, ESCALANTE-RAMREZ B, CAMARGO M L, et al. Left ventricle segmentation in fetal echocardiography using a multi-texture active appearance model based on the steered Hermite transform[J]. Computer Methods and Programs in Biomedicine, 2016, 137: 231-245.
[8] LONG J, SHELHAMER E, DARRELL T. Fully convolutional networks for semantic segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(4): 640-651.
[9] ZHENG S, JAYASUMANA S, ROMERA-PAREDES B, et al. Conditional random fields as recurrent neural networks[C]// ICCV15: Proceedings of the 2015 IEEE International Conference on Computer Vision. Washington, DC: IEEE Computer Society, 2015:1529-1537.
[10] HE K, GKIOXARI G, DOLLAR P, et al. Mask R-CNN[C]// ICCV 2017: Proceedings of the 2017 IEEE International Conference on Computer Vision. Washington, DC: IEEE Computer Society, 2017: 2961-2969.
[11] RONNEBERGER O, FISCHER P, BROX T. U-Net: convolutional networks for biomedical image segmentation[C]// MICCAI 2015: Proceedings of the 2015 International Conference on Medical Image Computing and Computer-Assisted Intervention, LNCS 9351. Berlin: Springer, 2015: 234-241.
[12] GAO M, XU Z, LU L, et al. Segmentation label propagation using deep convolutional neural networks and dense conditional random field[C]// Proceedings of the 2016 IEEE International Symposium on Biomedical Imaging. Piscataway, NJ: IEEE, 2016: 1265-1268.
[13] LI Y, YI G, WANG Y, et al. Segmentation of fetal left ventricle in echocardiographic sequences based on dynamic convolutional neural networks[J]. IEEE Transactions on Biomedical Engineering, 2017, 64(8): 1886-1895.
[14] 詹曙,梁植程,謝棟棟.前列腺磁共振圖像分割的反卷積神經(jīng)網(wǎng)絡(luò)方法[J].中國(guó)圖象圖形學(xué)報(bào),2017,22(4):516-522.(ZHAN S, LIANG Z C, XIE D D. Deconvolutional neural network for prostate MRI segmentation[J]. Journal of Image and Graphics, 2017, 22(4): 516-522.)
[15] JAFARI M H, GIRGIS H, LIAO Z, et al. A unified framework integrating recurrent fully-convolutional networks and optical flow for segmentation of the left ventricle in echocardiography data[C]// Proceedings of the 2018 International Workshop on Deep Learning in Medical Image Analysis and Multimodal Learning for Clinical Decision Support. Berlin: Springer, 2018: 29-37.
[16] SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[J]. ArXiv Preprint, 2014, 2014: 1409.1556.
[17] GRAHAM R L. An efficient algorithm for determining the convex hull of a finite planar set[J]. Information Processing Letters, 1978, 7(1): 53-55.