高喚 李秀娟
摘 要:醫(yī)學(xué)圖像診斷領(lǐng)域的研究熱點(diǎn)是病灶點(diǎn)特征和精準(zhǔn)定位,將深度學(xué)習(xí)應(yīng)用到該領(lǐng)域后診斷效果明顯,但是不同深度學(xué)習(xí)模型之間存在差異性。重點(diǎn)介紹幾種重要的深度神經(jīng)網(wǎng)絡(luò)模型,總結(jié)深度學(xué)習(xí)在肺結(jié)節(jié)診斷識別中的研究進(jìn)展,并提出將深度學(xué)習(xí)應(yīng)用于肺結(jié)節(jié)臨床診斷識別所面臨的挑戰(zhàn)與機(jī)遇。
關(guān)鍵詞:深度學(xué)習(xí);肺結(jié)節(jié)診斷;卷積神經(jīng)網(wǎng)絡(luò);醫(yī)學(xué)圖像
DOI:10. 11907/rjdk. 191972 開放科學(xué)(資源服務(wù))標(biāo)識碼(OSID):
中圖分類號:TP301文獻(xiàn)標(biāo)識碼:A 文章編號:1672-7800(2019)009-0047-04
Diagnosis and Recognition of Lung Nodules Based on Deep Learning
GAO Huan, LI Xiu-juan
(College of Electrical Engineering, Henan University of Technology, Zhengzhou 450001,China)
Abstract: The research hotspots of medical image diagnosis are the characteristics of lesions and precise positioning. After applying deep learning to this field, we find the diagnostic effect is obvious, but there are differences between different depth learning models. This paper focuses on several important deep neural network models, summarizes the research progress of deep learning in the diagnosis and identification of pulmonary nodules, and proposes the challenges and opportunities for applying deep learning to the clinical diagnosis and identification of pulmonary nodules.
Key Words:deep learning; pulmonary nodule diagnosis; convolutional neural network; medical imaging
0 引言
作為人類公敵的肺癌,是對人類生存威脅最大的惡性腫瘤之一,其發(fā)病率和死亡率目前均占所有惡性腫瘤首位[1-2]。降低肺癌死亡率、提高病人生存率,最關(guān)鍵的是早發(fā)現(xiàn)、早診斷、早治療。而肺結(jié)節(jié)作為早期肺癌的主要表現(xiàn)形式,及早發(fā)現(xiàn)與治療可以極大降低肺癌患者死亡率。人們生活水平和健康意識的不斷提高以及醫(yī)療設(shè)備的精細(xì)化發(fā)展,促進(jìn)了肺結(jié)節(jié)診斷治療的發(fā)展,但同時(shí)也給傳統(tǒng)的醫(yī)生診斷帶來了大量數(shù)據(jù)量和工作量[3-4]。
在醫(yī)學(xué)領(lǐng)域,肺結(jié)節(jié)診斷識別方法主要有影像學(xué)檢查、痰液細(xì)胞學(xué)檢查、纖維支氣管鏡檢查以及穿刺活檢等。而影像學(xué)X線計(jì)算機(jī)斷層攝影(X-ray Computed Tomography,CT)檢查由于其無創(chuàng)性而受到人們青睞,傳統(tǒng)肺結(jié)節(jié)診斷識別方法由影像科醫(yī)生通過逐張觀察被檢查者肺部CT圖像切片,依靠自身經(jīng)驗(yàn)判斷是否有肺結(jié)節(jié)以及其良惡性。面對大數(shù)據(jù)的CT圖像,醫(yī)院現(xiàn)存在診斷肺結(jié)節(jié)耗時(shí)長、效率低、主觀性大等問題,而影像科醫(yī)生面對長時(shí)間的診斷分析工作,極易造成疲勞,容易導(dǎo)致漏診和誤診。因此,利用一些專業(yè)診斷分析工具[5],為醫(yī)生提供輔助診斷,減輕醫(yī)生負(fù)擔(dān),從而為早期肺癌的判別提供客觀、科學(xué)的診斷依據(jù),推動(dòng)醫(yī)療診斷的智能化、精細(xì)化發(fā)展尤為必要。在這些診斷分析工具中,深度學(xué)習(xí)由于其易學(xué)性、通用性、高效性及準(zhǔn)確性,在醫(yī)學(xué)圖像診斷識別領(lǐng)域,尤其是肺結(jié)節(jié)診斷識別方面,正以極快的速度向前發(fā)展。
近年來,隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,很多深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks,DNN)模型也被應(yīng)用到醫(yī)學(xué)影像肺結(jié)節(jié)診斷中[6],歸納總結(jié)為兩類:有監(jiān)督學(xué)習(xí)方法和無監(jiān)督學(xué)習(xí)方法[7-13]。其中,有監(jiān)督學(xué)習(xí)包括卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN),無監(jiān)督學(xué)習(xí)包括棧式自動(dòng)編碼器(Stacked Auto-Encoders,SAE)[14]、限制玻爾茲曼機(jī)(Restricted Boltzman Machines,RBM)、深度信念網(wǎng)絡(luò)(Deep Belief Networks,DBN)等[15]。
本文重點(diǎn)介紹深度學(xué)習(xí)中幾個(gè)重要的深度神經(jīng)網(wǎng)絡(luò)模型并探討深度學(xué)習(xí)在肺結(jié)節(jié)診斷識別中的研究進(jìn)展,最后進(jìn)行總結(jié),提出基于深度學(xué)習(xí)的肺結(jié)節(jié)臨床診斷識別所面臨的挑戰(zhàn)與機(jī)遇。
1 幾種典型深度神經(jīng)網(wǎng)絡(luò)模型
深度神經(jīng)網(wǎng)絡(luò)[16]是一種含多隱層的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),能模擬人腦對外界的抽象機(jī)制。相比淺層神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),深度神經(jīng)網(wǎng)絡(luò)更加復(fù)雜,能夠提取更抽象的特征,具有以下優(yōu)點(diǎn):①能最大程度地表示輸入輸出間的函數(shù)關(guān)系,泛化能力強(qiáng);②參數(shù)遠(yuǎn)遠(yuǎn)小于同級別的淺層網(wǎng)絡(luò),不僅降低連接復(fù)雜度,還能抑制過擬合。
1.1 卷積神經(jīng)網(wǎng)絡(luò)
CNN是一種備受青睞的深度神經(jīng)網(wǎng)絡(luò),由于其輸入一般是帶標(biāo)簽的數(shù)據(jù),故屬于有監(jiān)督學(xué)習(xí)。自2012年開始,CNN憑借其無與倫比的特征學(xué)習(xí)能力被廣泛應(yīng)用于圖像識別、音頻識別等領(lǐng)域,同時(shí)許多科技公司相繼投入大量精力對其進(jìn)行產(chǎn)品化研究。如圖1所示,CNN一般由3個(gè)基本單元構(gòu)成,它們是卷積層(Convolutional Layer)、池化層(Pooling Layer)和全連接層(Fully Connected Layer),每層功能各不相同,通過合理安排連接順序可實(shí)現(xiàn)不同需求。
一般地,在CNN結(jié)構(gòu)中卷積層和池化層可多次交替出現(xiàn),在其頂層往往放置多個(gè)全連接層。尤其需要注意的是,除全連接層外,其余各層間神經(jīng)元都以局部連接方式相連。局部感知和權(quán)值共享是CNN實(shí)現(xiàn)特征提取的關(guān)鍵理論基礎(chǔ),局部感知使得層間的局部連接能夠減少網(wǎng)絡(luò)參數(shù),權(quán)值共享能更有效地提取關(guān)鍵特征。如圖2所示,一個(gè)基本CNN框架包括卷積、池化和非線性激活這3步操作。
1.2 自動(dòng)編碼器
自動(dòng)編碼器是深度學(xué)習(xí)領(lǐng)域中最常用的模型之一。如圖3所示,自動(dòng)編碼器將隱含層看作是編碼器與解碼器的組合,數(shù)據(jù)通過輸入與輸出間隱含層的編碼和解碼后基本保持不變。由于輸入數(shù)據(jù)通常無標(biāo)記,因此隱含層編碼和解碼的過程就是對數(shù)據(jù)特征進(jìn)行提取的過程。其學(xué)習(xí)目標(biāo)是使重建的誤差最小化,訓(xùn)練時(shí)往往采用共軛梯度法調(diào)整網(wǎng)絡(luò)參數(shù)。單個(gè)自動(dòng)編碼器一般不足以產(chǎn)生具有顯著判別能力的特征,因此研究者們常把多個(gè)自動(dòng)編碼器前后堆疊起來,這樣后層自動(dòng)編碼器便能在前層自動(dòng)編碼器中所學(xué)得的特征基礎(chǔ)上再進(jìn)行深入學(xué)習(xí),這便構(gòu)成了棧式自動(dòng)編碼器。不過,在網(wǎng)絡(luò)訓(xùn)練時(shí),如果誤差集中體現(xiàn)在前層自動(dòng)編碼器中,后層自動(dòng)編碼器的繼續(xù)學(xué)習(xí)將會(huì)失去作用,并且可能演變成對數(shù)據(jù)均值的學(xué)習(xí)。針對這種現(xiàn)象,有學(xué)者提出采用預(yù)訓(xùn)練方式[17]。
1.3 限制玻爾茲曼機(jī)
RBM來源于玻爾茲曼機(jī),之所以加上“限制”兩字,是因?yàn)樗⒉辉试S同一層中神經(jīng)元的相互連接。每個(gè)神經(jīng)元的輸出只有兩種狀態(tài),一般使用二進(jìn)制的0和1表示。RBM具有兩層結(jié)構(gòu),即可見層(V層)和隱層(H層),兩層神經(jīng)元間全連接,但每層神經(jīng)元之間是獨(dú)立的,即每層神經(jīng)元之間無連接,如圖4所示。RBM是一種基于能量的模型,即能量最小化時(shí)網(wǎng)絡(luò)模型達(dá)到理想狀態(tài)。在給定的可見層單元狀態(tài)下,各隱層的激活條件獨(dú)立;同樣地,給定隱層單元狀態(tài)時(shí),可見層的激活條件獨(dú)立[18]。
1.4 深度信念網(wǎng)絡(luò)
DBN由多個(gè)RBM組成,一個(gè)典型的DBN結(jié)構(gòu)如圖5所示。DBN是由多層潛在隨機(jī)變量構(gòu)成的概率生成模型。潛在變量通常具有二進(jìn)制值,通常稱為隱藏單元或特征檢測器。最上面的兩層之間有無向的對稱連接,形成聯(lián)想記憶;較低的層從上面的層接收自頂向下的、定向的連接。最底層單元的狀態(tài)表示一個(gè)數(shù)據(jù)向量[19]。
DBN有兩個(gè)最重要特性:一是它提供一個(gè)高效的、逐層的過程學(xué)習(xí)自頂向下、可生成的權(quán)重,其決定了一層中的變量如何依賴于上一層的變量;二是學(xué)習(xí)之后,每一層潛在變量的值都可以通過一個(gè)自底向上的單遍歷推斷,該遍歷從底層一個(gè)觀察到的數(shù)據(jù)向量開始,然后反向使用生成權(quán)值。
DBN通過將一層中潛在變量的值作為訓(xùn)練下一層的數(shù)據(jù)進(jìn)行處理??梢宰裱@種高效、貪婪的學(xué)習(xí),或與其它學(xué)習(xí)過程相結(jié)合,微調(diào)所有權(quán)重,以提高整個(gè)網(wǎng)絡(luò)的生成或辨別性能??梢酝ㄟ^添加最后一層變量的期望輸出和反向傳播誤差導(dǎo)數(shù)進(jìn)行區(qū)分性的微調(diào)。將具有多個(gè)隱層的網(wǎng)絡(luò)應(yīng)用到高度結(jié)構(gòu)化的輸入數(shù)據(jù),如圖像時(shí),如果通過學(xué)習(xí)一個(gè)對輸入數(shù)據(jù)中結(jié)構(gòu)建模的DBN初始化隱層中的特征檢測器,則反向傳播效果會(huì)更好。
2 研究進(jìn)展
深度學(xué)習(xí)方法是根據(jù)相應(yīng)算法完成肺結(jié)節(jié)的篩選[20-21]并進(jìn)行判斷分類[22-25],可以比較完整地觀察整張切片而無遺漏,且不會(huì)受到疲勞狀態(tài)影響,其結(jié)果也較為客觀和全面。當(dāng)前,深度學(xué)習(xí)方法結(jié)合CT圖像對肺結(jié)節(jié)進(jìn)行診斷識別的研究較多。
楊佳玲等[26]將自定義的DBN引入肺結(jié)節(jié)的良惡性診斷中,實(shí)現(xiàn)肺結(jié)節(jié)的分類算法。該算法首先提取感興趣區(qū)域,從形狀、灰度、紋理、空間位置這幾個(gè)方面提取87個(gè)不同的肺結(jié)節(jié)特征,并構(gòu)造特征向量[27];然后對提取的特征進(jìn)行研究分析,構(gòu)建出5層DBN,該網(wǎng)絡(luò)包括3個(gè)隱層,一個(gè)輸入、一個(gè)二分類輸出層;最后對所構(gòu)建DBN模型進(jìn)行訓(xùn)練測試,并給出測試指標(biāo)。對來自肺部圖像數(shù)據(jù)庫聯(lián)盟(Lung Image Database Consortium,LIDC)與某醫(yī)院的206個(gè)CT病例進(jìn)行訓(xùn)練測試,結(jié)果表明該算法指標(biāo)分別是分類精度95.3%、敏感性92.5%和特異性93.2%,ROC曲線下面積為0.921。
Song等[28]比較分析了用于肺癌鈣化檢測的3種深度神經(jīng)網(wǎng)絡(luò)模型,分別是CNN、DNN、SAE,并將這些網(wǎng)絡(luò)模型應(yīng)用于CT圖像中,在LIDC數(shù)據(jù)庫上對肺結(jié)節(jié)良惡性進(jìn)行診斷分類、預(yù)測評估。實(shí)驗(yàn)結(jié)果表明,CNN的性能優(yōu)于DNN和SAE,準(zhǔn)確率為84.15%,靈敏度為83.96%,特異性為84.32%,在3種網(wǎng)絡(luò)中效果最好。
Shen等[29]提出了一種多作物卷積神經(jīng)網(wǎng)絡(luò)(Multi-crop Convolutional Neutral Network,MC-CNN),通過對卷積特征圖中不同區(qū)域的作物進(jìn)行池化處理,然后在不同的時(shí)間應(yīng)用最大池化處理技術(shù),自動(dòng)提取結(jié)節(jié)的突出信息。通過在LIDC數(shù)據(jù)庫上進(jìn)行大量實(shí)驗(yàn),結(jié)果表明,提出的方法能獲得最先進(jìn)的結(jié)節(jié)可疑性分類性能,其分類精度、敏感性和特異性分別為87.14%,77%和93%,ROC曲線下面積為0.93。同時(shí),所提出的網(wǎng)絡(luò)能有效地表征結(jié)節(jié)的語義屬性(細(xì)微度和邊緣)和結(jié)節(jié)直徑,對結(jié)節(jié)良惡性建模診斷很有幫助。
Raunak等[30]提出從三維圖像直接映射到類標(biāo)簽,為了實(shí)現(xiàn)這一目標(biāo),構(gòu)造了四種雙通路卷積神經(jīng)網(wǎng)絡(luò),包括一個(gè)基本的3D CNN、一個(gè)新的多輸出網(wǎng)絡(luò)、一個(gè)3D DenseNet和一個(gè)具有多輸出的增強(qiáng)3D DenseNet。通過在LIDC數(shù)據(jù)集上對這4個(gè)網(wǎng)絡(luò)進(jìn)行評估,顯示其性能優(yōu)于大多數(shù)現(xiàn)有方法,特別是3D多輸出DenseNet (MoDenseNet),在端到端肺結(jié)節(jié)診斷任務(wù)上達(dá)到了最先進(jìn)的分類精度,其分類精度、敏感性和特異性分別為90.40%,90.47%和90.33%,ROC曲線下面積為0.954 8。此外,研究者認(rèn)為在LIDC數(shù)據(jù)集上預(yù)先訓(xùn)練的網(wǎng)絡(luò)可作進(jìn)一步擴(kuò)展,通過遷移學(xué)習(xí)處理更小的數(shù)據(jù)集。在肺結(jié)節(jié)分類中的預(yù)測準(zhǔn)確性也證明了這一點(diǎn)。
苗光等[31]提出了一種二維和三維卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合的肺結(jié)節(jié)檢測方法。該方法首先采用改進(jìn)的2D全卷積神經(jīng)網(wǎng)絡(luò)U-net檢測候選結(jié)節(jié)[32]。針對原始U-net模型在訓(xùn)練時(shí),會(huì)出現(xiàn)過擬合現(xiàn)象,通過改變網(wǎng)絡(luò)輸入圖片大小、添加Batch-Normalization層、采用Leaky-ReLU、加入dropout策略等方法抽取候選結(jié)節(jié)。隨后,將多層切片中的候選結(jié)節(jié)通過計(jì)算歐式距離并參考注釋文件等方法進(jìn)行合并,并根據(jù)計(jì)算出的均值坐標(biāo),提取出疑似結(jié)節(jié)的三維立體圖像塊。之后,構(gòu)造出一個(gè)7層的3D卷積神經(jīng)網(wǎng)絡(luò)框架用于去除結(jié)節(jié)的假陽性,該框架包含一個(gè)輸入層、三個(gè)卷積層、一個(gè)池化層、一個(gè)全連接層和一個(gè)Softmax分類器。將提取的候選結(jié)節(jié)送入構(gòu)建的3D CNN模型中進(jìn)行二分類處理以去除假陽性結(jié)節(jié)。在LIDC數(shù)據(jù)集上,平均每位患者為36.2個(gè)假陽性時(shí),結(jié)節(jié)初步檢測召回率時(shí)為98.2%;在假陽性去除后,假陽性為1和4時(shí),準(zhǔn)確率分別是87.3%和97.0%。該方法采用3D CNN能更加有效地提取到結(jié)節(jié)原有的空間信息,有效解決了肺結(jié)節(jié)識別效率不高及大量假陽性問題。
3 結(jié)語
綜上所述,基于深度學(xué)習(xí)的肺結(jié)節(jié)診斷識別,能有效克服傳統(tǒng)醫(yī)生診斷存在診斷識別速度慢、認(rèn)知能力參差不齊、工作強(qiáng)度大等問題,可提高肺結(jié)節(jié)診斷識別精度,還可減少醫(yī)生工作量,輔助醫(yī)生進(jìn)行診斷分析,其診斷結(jié)果具有客觀穩(wěn)定性,極大提高了診斷精度及工作效率。
但將深度學(xué)習(xí)方法徹底應(yīng)用于肺結(jié)節(jié)的臨床診斷識別尚存在一些問題[33]:①深度神經(jīng)網(wǎng)絡(luò)模型提取的肺結(jié)節(jié)特征不可見,這給分析不同特征的重要程度造成困難;②在有監(jiān)督的深度學(xué)習(xí)方法中,需要大量地訓(xùn)練和測試樣本,以期得到較高的精確度,但醫(yī)學(xué)圖像往往涉及病患私密性等,增加了樣本的獲取難度;③深度學(xué)習(xí)訓(xùn)練及測試時(shí),由于運(yùn)算量較大,因而對內(nèi)存、CPU及GPU等硬件要求高,且訓(xùn)練及測試時(shí)間較長[34];④深度學(xué)習(xí)并不能完全取代人工,它必須依賴已有臨床專家標(biāo)注的肺結(jié)節(jié)樣本,才能實(shí)現(xiàn)對新樣本的診斷和識別,而在肺癌診斷方面,由于患者個(gè)體差異,一般并不能完全保證所取樣本的全面性。
根據(jù)2016年國家科技部“精準(zhǔn)醫(yī)學(xué)研究”重點(diǎn)專項(xiàng)項(xiàng)目研發(fā)計(jì)劃[35]以及《2018年醫(yī)療人工智能技術(shù)與應(yīng)用白皮書》,再結(jié)合目前醫(yī)療改革趨勢可知,在醫(yī)學(xué)影像學(xué)領(lǐng)域,不僅僅是在肺結(jié)節(jié)診斷識別中,深度學(xué)習(xí)在很多領(lǐng)域的應(yīng)用將更加深入;并且,隨著深度學(xué)習(xí)方法的日趨完善,采用遷移學(xué)習(xí)及弱監(jiān)督學(xué)習(xí)[36-38], 有效結(jié)合無監(jiān)督預(yù)訓(xùn)練和監(jiān)督學(xué)習(xí)的優(yōu)點(diǎn)進(jìn)行肺結(jié)節(jié)診斷識別,可充分利用大量未標(biāo)注數(shù)據(jù)以保證樣本的全面性??梢灶A(yù)測,采用深度學(xué)習(xí)方法實(shí)現(xiàn)肺結(jié)節(jié)的輔助臨床診斷識別將成為現(xiàn)實(shí)。
參考文獻(xiàn):
[1] 周清華,范亞光,王穎,等. 中國肺癌低劑量螺旋CT篩查指南(2018 年版)[J]. ?Chinese Journal of Lung Cancer,2018,21(2):67.
[2] NETTO S M B, SILVA A C, NUNES R A, et al. Automatic segmentation of lung nodules with growing neural gas and support vector machine[J]. Computers in biology and medicine,2012, 42(11): 1110-1121.
[3] 鄭光遠(yuǎn),劉峽壁,韓光輝. 醫(yī)學(xué)影像計(jì)算機(jī)輔助檢測與診斷系統(tǒng)綜述[J]. 軟件學(xué)報(bào), 2018, 29(5): 1471-1514.
[4] 聶貞慧,劉麗東,蘇丹柯. 基于深度學(xué)習(xí)的X線診斷乳腺癌研究進(jìn)展[J]. 中國醫(yī)學(xué)影像技術(shù),2019,35(5): 774-777.
[5] 陳詩慧,劉維湘,秦璟,等. 基于深度學(xué)習(xí)和醫(yī)學(xué)圖像的癌癥計(jì)算機(jī)輔助診斷研究進(jìn)展[J]. 生物醫(yī)學(xué)工程學(xué)雜志,2017,34(2):314-319.
[6] KOMMRUSCH S,POUCHET L N. Synthetic lung nodule 3D image generation using autoencoders[J]. ?arXiv preprint arXiv:1811.07999, 2018.
[7] AFFONSO C,ROSSI A L D,VIEIRA F H A,et al. Deep learning for biological image classification[J]. Expert Systems with Applications,2017,85:114-122.
[8] 劉飛,張俊然,楊豪. 基于深度學(xué)習(xí)的醫(yī)學(xué)圖像識別研究進(jìn)展[J]. 中國生物醫(yī)學(xué)工程學(xué)報(bào), 2018,37(1):86-94.
[9] 蕭毅,夏晨,張榮國,等. 人工智能技術(shù)在醫(yī)學(xué)影像中的應(yīng)用討論[J]. 第二軍醫(yī)大學(xué)學(xué)報(bào), 2018,39(8):813-818.
[10] SERJ M F,LAVI B,HOFF G,et al. A deep convolutional neural network for lung cancer diagnostic[J]. arXiv Preprint arXiv:1804. 08170, 2018.
[11] LASHARI S A, IBRAHIM R. A framework for medical images classification using soft set[J]. Procedia Technology,2013,11:548-556.
[12] LITJENS G,KOOI T,BEJNORDI B E,et al. A survey on deep learning in medical image analysis[J]. Medical Image Analysis,2017,42:60-88.
[13] LUNDERVOLD A S, LUNDERVOLD A. An overview of deep learning in medical imaging focusing on MRI[J]. Zeitschrift für Medizinische Physik,2019,29(2):102-127.
[14] KURUVILLA J,GUNAVATHI K. Lung cancer classification using neural networks for CT images[J]. Computer Methods and Programs in Biomedicine,2014,113(1):202-209.
[15] LECUN Y,BENGIO Y,HINTON G. Deep learning[J]. Nature,2015,521(7553):436.
[16] SCHMIDHUBER J. Deep learning in neural networks: An overview[J]. Neural networks, 2015,61:85-117.
[17] HINTON G E,SALAKHUTDINOV R R. Reducing the dimensionality of data with neural networks[J]. Science,2006,313(5786):504-507.
[18] ACKLEY D H,HINTON G E,SEJNOWSKI T J. A learning algorithm for boltzmann machines[J].Cognitive Science,1985,9(1):147-169.
[19] HINTON G E,OSINDERO S,TEH Y W. A fast learning algorithm for deep belief nets[J]. Neural Computation,2006,18(7):1527-1554.
[20] LAI M.Deep learning for medical image segmentation[DB/OL]. arXiv Preprint arXiv:1505.02000, 2015.
[21] LAI Z F,DENG H F.Medical image classification based on deep features extracted by deep model and statistic feature fusion with multilayer perceptron[J]. Computational Intelligence and Neuroscience,2018.
[22] CAUSEY J L,ZHANG J,MA S,et al. Highly accurate model for prediction of lung nodule malignancy with CT scans[R]. Scientific Reports,2018-06-18.
[23] DE BRUIJNE M. Machine learning approaches in medical image analysis: From detection to diagnosis[J]. Medical Image Analysis,2016,33(11):94-97.
[24] KRIZHEVSKY A,SUTSKEVER I,HINTON G E. Imagenet classification with deep convolutional neural networks[C]. Advances in Neural Information Processing Systems,2012:1097-1105.
[25] FROZ B R,DE CARVALHO FILHO A O,SILVA A C, et al. Lung nodule classification using artificial crawlers, directional texture and support vector machine[J]. Expert Systems with Applications,2017,69:176-188.
[26] 楊佳玲,趙涓涓,強(qiáng)彥,等. 基于深度信念網(wǎng)絡(luò)的肺結(jié)節(jié)良惡性分類[J]. 科學(xué)技術(shù)與工程,2016(32):69-74.
[27] JACOBS C,VAN RIKXOORT E M,TWELLMANN T,et al. Automatic detection of subsolid pulmonary nodules in thoracic computed tomography images[J]. Medical Image Analysis,2014,18(2):374-384.
[28] SONG Q Z,ZHAO L,LUO X K,et al. Using deep learning for classification of lung nodules on computed tomography images[J]. Journal of Healthcare Engineering,2017(8):1-7.
[29] SHEN W,ZHOU M,YANG F,et al. Multi-crop convolutional neural networks for lung nodule malignancy suspiciousness classification[J]. ?Pattern Recognition,2017,61: 663-673.
[30] DEY R,LU Z,HONG Y.D iagnostic classification of lung nodules using 3D neural networks[C]. 2018 IEEE 15th International Symposium on Biomedical Imaging,2018:774-778.
[31] 苗光,李朝鋒. 二維和三維卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合的CT圖像肺結(jié)節(jié)檢測方法[J]. 激光與光電子學(xué)進(jìn)展,2018,55(5):051006.
[32] ALOM M Z,HASAN M,YAKOPCIC C,et al. Recurrent residual convolutional neural network based on u-net (R2U-net) for medical image segmentation[DB/OL]. https://arxiv.org/ftp/arxiv/papers/1802/1802.06955.pdf.
[33] RAZZAK M I,NAZ S, ZAIB A. Classification in BioApps:deep learning for medical image processing: overview, challenges and the future[M]. Heidelberg: Springer,2018.
[34] 竇瑞欣. 深度學(xué)習(xí)算法在醫(yī)學(xué)影像學(xué)中的應(yīng)用及研究進(jìn)展[J]. 中國醫(yī)學(xué)計(jì)算機(jī)成像雜志, 2018,24(5): 369-372.
[35] 田娟秀,劉國才,谷珊珊,等. 醫(yī)學(xué)圖像分析深度學(xué)習(xí)方法研究與挑戰(zhàn)[J]. 自動(dòng)化學(xué)報(bào), 2018,44(3):401-424.
[36] TAJBAKHSH N,SHIN J Y,GURUDU S R,et al. Convolutional neural networks for medical image analysis: full training or fine tuning[J]. IEEE transactions on medical imaging,2016,35(5):1299-1312.
[37] KIM H E,HWANG S. Deconvolutional feature stacking for weakly-supervised semantic segmentation[DB/OL]. https://arxiv.org/pdf/1602.04984.pdf.
[38] SHIN H C,ROTH H R,GAO M,et al.Deep convolutional neural networks for computer-aided detection: CNN architectures, dataset characteristics and transfer learning[J]. IEEE Transactions on Medical Imaging,2016,35(5): 1285-1298.
(責(zé)任編輯:孫 娟)