亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        深度學(xué)習(xí)及其在醫(yī)學(xué)圖像分析中的應(yīng)用研究

        2016-11-01 09:10:04王媛媛吳翠穎
        電視技術(shù) 2016年10期
        關(guān)鍵詞:深度特征模型

        王媛媛,周 濤,吳翠穎

        (寧夏醫(yī)科大學(xué) a.公共衛(wèi)生與管理學(xué)院; b.理學(xué)院,寧夏 銀川 750004)

        ?

        深度學(xué)習(xí)及其在醫(yī)學(xué)圖像分析中的應(yīng)用研究

        王媛媛a,周濤b,吳翠穎a

        (寧夏醫(yī)科大學(xué) a.公共衛(wèi)生與管理學(xué)院; b.理學(xué)院,寧夏 銀川 750004)

        深度學(xué)習(xí)被引入機(jī)器學(xué)習(xí)領(lǐng)域與大數(shù)據(jù)的完美結(jié)合加快了人工智能實(shí)現(xiàn)的步伐,近年來(lái)備受學(xué)術(shù)界和工業(yè)界的廣泛關(guān)注。從深度學(xué)習(xí)的3種經(jīng)典模型出發(fā),主要做了5方面的工作:第一,針對(duì)深度信念網(wǎng)絡(luò),從網(wǎng)絡(luò)結(jié)構(gòu)(隱含層數(shù)、RBM結(jié)構(gòu)、DBN級(jí)聯(lián)),學(xué)習(xí)算法(基本算法、優(yōu)化算法與其他方法結(jié)合),硬件系統(tǒng)(GPU,F(xiàn)PGA)三個(gè)方面進(jìn)行總結(jié);第二,針對(duì)卷積神經(jīng)網(wǎng)絡(luò),從網(wǎng)絡(luò)結(jié)構(gòu)(輸入層、隱含層、CNN個(gè)數(shù)),學(xué)習(xí)算法,硬件系統(tǒng)三個(gè)方面進(jìn)行歸納;第三,針對(duì)堆棧自編碼器,以時(shí)間為軸對(duì)其發(fā)展進(jìn)行梳理,闡述相應(yīng)自編碼器的方法改進(jìn);第四,從醫(yī)學(xué)圖像分割、醫(yī)學(xué)圖像識(shí)別和計(jì)算機(jī)輔助診斷3個(gè)方面詳細(xì)探討深度學(xué)習(xí)在醫(yī)學(xué)圖像分析領(lǐng)域中的應(yīng)用;最后從大數(shù)據(jù)浪潮、模型構(gòu)建、特征學(xué)習(xí)、應(yīng)用拓展4個(gè)方面對(duì)深度學(xué)習(xí)的發(fā)展進(jìn)行展望。

        深度學(xué)習(xí);深度信念網(wǎng)絡(luò);卷積神經(jīng)網(wǎng)絡(luò);堆棧自編碼器;醫(yī)學(xué)圖像

        深度學(xué)習(xí)是機(jī)器學(xué)習(xí)領(lǐng)域中一系列試圖使用多重非線性變換對(duì)數(shù)據(jù)進(jìn)行多層抽象的算法,不僅學(xué)習(xí)輸入和輸出之間的非線性映射,還學(xué)習(xí)輸入數(shù)據(jù)向量的隱藏結(jié)構(gòu)[1],以用來(lái)對(duì)新的樣本進(jìn)行智能識(shí)別或預(yù)測(cè)。20世紀(jì)80年代末期,用于人工神經(jīng)網(wǎng)絡(luò)的反向傳播算法的發(fā)明掀起了基于統(tǒng)計(jì)模型的機(jī)器學(xué)習(xí)熱潮,20世紀(jì)90年代,淺層學(xué)習(xí)掀起機(jī)器學(xué)習(xí)的第一次浪潮,這些淺層結(jié)構(gòu)雖然相比于過(guò)去基于人工規(guī)則的系統(tǒng)展現(xiàn)了很大的優(yōu)越性,但對(duì)于處理復(fù)雜的問(wèn)題,表現(xiàn)出特征學(xué)習(xí)能力不足、維數(shù)災(zāi)難、易陷入局部最優(yōu)等缺點(diǎn)。針對(duì)上述問(wèn)題,2006年,Hinton在《Science》上首次提出“深度學(xué)習(xí)”并掀起了機(jī)器學(xué)習(xí)的第二次浪潮,多隱層的網(wǎng)絡(luò)具有優(yōu)異的特征學(xué)習(xí)能力,學(xué)習(xí)得到的特征對(duì)數(shù)據(jù)有更本質(zhì)的刻畫(huà)。2012年《紐約時(shí)報(bào)》披露了Google Brain項(xiàng)目,該項(xiàng)目用16 000個(gè)CPU Core的并行計(jì)算平臺(tái)訓(xùn)練“深度神經(jīng)網(wǎng)絡(luò)”,在語(yǔ)音識(shí)別和圖像識(shí)別中得到成功應(yīng)用;2013年機(jī)器學(xué)習(xí)國(guó)際會(huì)議就音頻、語(yǔ)音和視覺(jué)信息處理的學(xué)習(xí)結(jié)構(gòu)、表示和最優(yōu)化等方面進(jìn)行討論[2];4月,《MIT Technology Review》雜志將深度學(xué)習(xí)列為2013年十大突破性技術(shù)之首;2013年百度成立了深度學(xué)習(xí)研究院,并實(shí)施“百度大腦”計(jì)劃;2015年,中科曙光推出深度學(xué)習(xí)一體機(jī),并聯(lián)合中科院計(jì)算技術(shù)研究所和NVIDIA公司成立深度學(xué)習(xí)實(shí)驗(yàn)室;深度學(xué)習(xí)在神經(jīng)影像學(xué)[3]方面的突破對(duì)于醫(yī)學(xué)領(lǐng)域的發(fā)展至關(guān)重要。

        鑒于深度學(xué)習(xí)優(yōu)異的特征學(xué)習(xí)能力和實(shí)際應(yīng)用價(jià)值,本文主要總結(jié)了深度學(xué)習(xí)的三種模型:深度信念網(wǎng)絡(luò)(Deep Belief Network,DBN)、卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)、堆棧自編碼器(Stacked Autoencoder,SAE)。針對(duì)DBN,CNN主要從網(wǎng)絡(luò)結(jié)構(gòu)、學(xué)習(xí)算法和硬件系統(tǒng)三方面綜述研究進(jìn)展,針對(duì)SAE以時(shí)間為軸梳理發(fā)展過(guò)程;然后對(duì)深度學(xué)習(xí)在醫(yī)學(xué)圖像分析領(lǐng)域中的應(yīng)用進(jìn)行詳細(xì)總結(jié),最后從大數(shù)據(jù)浪潮、模型構(gòu)建、特征學(xué)習(xí)、應(yīng)用拓展四個(gè)方面對(duì)深度學(xué)習(xí)未來(lái)的發(fā)展進(jìn)行展望。

        1 深度信念網(wǎng)絡(luò)(DBN)

        1.1基本原理

        DBN是無(wú)監(jiān)督學(xué)習(xí)下的深度結(jié)構(gòu)概率生成模型,由多層神經(jīng)元構(gòu)成,顯性神經(jīng)元用于接受輸入,隱性神經(jīng)元用于提取特征,每一層從前一層的隱含單元捕獲高階數(shù)據(jù)的相關(guān)性。DBN的基本組成塊是受限玻爾茲曼機(jī)(RBM),層間單元是全連接關(guān)系,層內(nèi)單元之間沒(méi)有連接關(guān)系。

        RBM在給定模型參數(shù)θ條件下,可以使用能量函數(shù)來(lái)表示RBM中的可視單元v和隱層單元h的聯(lián)合分布

        P(v,h;θ)=exp(-E(v,h;θ))/z(θ)

        (1)

        (2)

        式中:P(v,h;θ)為玻爾茲曼分布函數(shù);z(θ)是一個(gè)歸一化因子;θ={ωij,bi,aj}。對(duì)于一個(gè)伯努利(可視)-伯努利(隱藏)RBM,其能量函數(shù)可定義為

        (3)

        條件概率可以表示為

        (4)

        (5)

        其中:ωij為可視單元和隱單元的連接權(quán)值;bi和aj分別是對(duì)應(yīng)偏置量,i和j為可視單元和隱層單元的數(shù)目;激勵(lì)函數(shù)一般是sigmoid函數(shù)。

        1.2DBN改進(jìn)

        DBN作為一種無(wú)監(jiān)督特征學(xué)習(xí)復(fù)雜層次概率模型的方法,目前主要集中在網(wǎng)絡(luò)結(jié)構(gòu)、學(xué)習(xí)算法、硬件系統(tǒng)3個(gè)方面的改進(jìn)研究,如圖1所示。

        圖1 深度信念網(wǎng)絡(luò)的改進(jìn)

        1.2.1網(wǎng)絡(luò)結(jié)構(gòu)

        深度信念網(wǎng)絡(luò)是由RBM堆疊而成,那么RBM的堆疊個(gè)數(shù)和結(jié)構(gòu)的改變會(huì)構(gòu)建不同的DBN,并且多個(gè)DBN級(jí)聯(lián)也會(huì)影響其性能。

        1) 在DBN隱含層數(shù)的確定方面,目前主要依賴(lài)于先驗(yàn)知識(shí),其缺點(diǎn)是主觀性大,時(shí)間復(fù)雜度高。李晉徽提出瓶頸深度信念網(wǎng)絡(luò)[4],設(shè)定一個(gè)奇數(shù)層的多層神經(jīng)網(wǎng)絡(luò)且最中間的神經(jīng)元個(gè)數(shù)最少的一層作為瓶頸層,然后去除瓶頸層之后的網(wǎng)絡(luò),原來(lái)的瓶頸層作為輸出層;潘光源[5]證明了RBM重構(gòu)誤差與網(wǎng)絡(luò)能量的正相關(guān)定理,根據(jù)隱含層和誤差的關(guān)系,提出一種基于重構(gòu)誤差的網(wǎng)絡(luò)深度判斷方法。

        2)在DBN模型結(jié)構(gòu)方面的研究主要是基于RBM結(jié)構(gòu)的改進(jìn)。期望能量受限波爾茲曼機(jī)[6]是將RBM函數(shù)逼近的學(xué)習(xí)性能通過(guò)負(fù)預(yù)期能量代替負(fù)自由能量計(jì)算輸出;數(shù)值屬性的DBN是在sigmoid單元中增加噪聲將輸入縮放到[0,1]區(qū)間,避免一般的輸入二值向量造成的信息丟失使分類(lèi)效果降低的現(xiàn)象;卷積深度信念網(wǎng)絡(luò)是引入局部感受野和卷積操作,具有平移不變性并支持高效的自下而上和自上而下的概率推理;因素四通道條件限制玻爾茲曼機(jī)[7]即一個(gè)新標(biāo)簽層和來(lái)自不同層的神經(jīng)元結(jié)合建立四通道,實(shí)現(xiàn)回歸和分類(lèi)。

        3)在DBN級(jí)聯(lián)方面,深度信念網(wǎng)絡(luò)和級(jí)聯(lián)去噪自編碼器結(jié)合,即前兩層用去噪自編碼實(shí)現(xiàn),中間兩層用受限玻爾茲曼機(jī)來(lái)實(shí)現(xiàn),最后用邏輯斯特層作為分類(lèi)層;Ping Liu提出由一組DBN構(gòu)成的BDBN(Boosted DBN)[8]框架使得特征學(xué)習(xí)、特征選擇和分類(lèi)器重建統(tǒng)一成一個(gè)循環(huán)的過(guò)程,特征被聯(lián)合微調(diào)同時(shí)被選擇形成一個(gè)強(qiáng)大的分類(lèi)器。

        1.2.2學(xué)習(xí)算法

        DBN的學(xué)習(xí)過(guò)程包括無(wú)監(jiān)督預(yù)訓(xùn)練和有監(jiān)督微調(diào),學(xué)習(xí)算法是實(shí)現(xiàn)特定目標(biāo)任務(wù)的基礎(chǔ),本文從DBN基本學(xué)習(xí)算法、優(yōu)化算法和與其他算法的結(jié)合三方面進(jìn)行闡述:

        1)在基本學(xué)習(xí)算法方面,2006年,Hinton教授提出高效的RBM近似學(xué)習(xí)算法(CD)[9],即將原始RBM的學(xué)習(xí)算法中的概率分布差異度量用一個(gè)近似的概率分布差異度量取代;2008年Tijmen Tieleman[10]提出了PCD學(xué)習(xí)算法,既保持了CD的學(xué)習(xí)效率又具備更強(qiáng)的模式生成能力,隨后提出的快速持續(xù)對(duì)比散度算法,加快了運(yùn)行速度;2009年開(kāi)始出現(xiàn)了一系列基于回火的馬爾科夫鏈蒙特卡羅采樣算法的RBM學(xué)習(xí)算法,為學(xué)習(xí)率和無(wú)監(jiān)督訓(xùn)練提供了高可靠性和強(qiáng)魯棒性;趙彩光[11]結(jié)合指數(shù)平均數(shù)指標(biāo)算法和并行回火的思想改進(jìn)CD訓(xùn)練算法;Noel Lopes[12]提出了一種自適應(yīng)步長(zhǎng)技術(shù)以提高對(duì)比發(fā)散算法的收斂性。

        2)對(duì)于優(yōu)化算法,其目的在于提高DBN的整體性能。L1和L2兩個(gè)不同正則項(xiàng)的選擇性應(yīng)用[13]可確保表示的稀疏性和泛化能力;經(jīng)粒子群優(yōu)化的DBNs模型可獲得更好的函數(shù)逼近效果;加入共軛梯度算法可加速訓(xùn)練;基于連續(xù)判別訓(xùn)練準(zhǔn)則優(yōu)化DBN權(quán)值、狀態(tài)變換參數(shù)及語(yǔ)言模型分?jǐn)?shù),使得DBN性能優(yōu)于基于框架準(zhǔn)則的DBN;稀疏響應(yīng)DBN[14]即數(shù)據(jù)的分布和由DBN的構(gòu)建塊中定義的平衡分布之間的Kullback-Leibler散度(相對(duì)熵)被視為失真函數(shù),并且稀疏響應(yīng)正則化誘導(dǎo)L1范數(shù)代碼被用來(lái)實(shí)現(xiàn)一個(gè)小代碼率進(jìn)行多層次的抽象特征提取。

        3) DBN與其他方法的結(jié)合表現(xiàn)在結(jié)合預(yù)處理方法、特征提取方法和分類(lèi)器。對(duì)圖像進(jìn)行歸一化處理輸入模型中;對(duì)圖像提取特征如LBP或進(jìn)行Gabor小波變換并編碼作為輸入,從而學(xué)習(xí)數(shù)據(jù)更本質(zhì)的特征;輸出層與其他分類(lèi)器結(jié)合達(dá)到良好的識(shí)別效果。有判別力的限制玻爾茲曼機(jī)與線性變換結(jié)合[15]用于不變模式的識(shí)別,特征提取和模式分類(lèi)同時(shí)實(shí)現(xiàn);極限學(xué)習(xí)機(jī)(ELM)[16]運(yùn)用到 DBN 模型的訓(xùn)練中,既保證學(xué)習(xí)準(zhǔn)確性又提高學(xué)習(xí)速度。

        1.2.3硬件系統(tǒng)

        深度學(xué)習(xí)模型結(jié)構(gòu)的復(fù)雜化必須以計(jì)算機(jī)硬件為基礎(chǔ)。高度可擴(kuò)展的圖形處理單元(GPU)[12]并行執(zhí)行CD-K算法,加快了訓(xùn)練速度;面向計(jì)算機(jī)集群的分布式內(nèi)存計(jì)算方法[17]提升深度學(xué)習(xí)技術(shù)并行化學(xué)習(xí)效率;以多個(gè)副本異步并行計(jì)算的方式進(jìn)行深度信念網(wǎng)絡(luò)模型訓(xùn)練,明顯提高深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練效率,并具備良好的可擴(kuò)展性。

        2 卷積神經(jīng)網(wǎng)絡(luò)(CNN)

        2.1基本原理

        CNN是一種有監(jiān)督學(xué)習(xí)的深度學(xué)習(xí)模型(如圖2所示),包含卷積層和子采樣層兩種特殊的結(jié)構(gòu)層,通過(guò)結(jié)合局部感受野、權(quán)值共享、時(shí)間或空間亞采樣來(lái)實(shí)現(xiàn)對(duì)輸入數(shù)據(jù)的位移變化、尺度變化、形變變化的不變性。

        圖2 卷積神經(jīng)網(wǎng)絡(luò)的整體結(jié)構(gòu)

        卷積神經(jīng)網(wǎng)絡(luò)的隱藏層是特征提取的核心,在卷積層,每個(gè)神經(jīng)元的輸入與前一層的局部感受野相連,并提取該局部的特征。卷積層的形式

        (6)

        其中:I代表層數(shù);Mj代表輸入層的感受野;b代表偏置。在下采樣層,輸入的特征圖經(jīng)過(guò)池化后其個(gè)數(shù)不變,輸出特征圖大小為原圖一半,下采樣層的形式

        (7)

        其中:p(·)為下采樣函數(shù);β為權(quán)重系數(shù);b為偏置系數(shù)。

        2.2CNN改進(jìn)

        卷積神經(jīng)網(wǎng)絡(luò)在二維圖像識(shí)別中展現(xiàn)了良好的容錯(cuò)能力、并行處理能力和自學(xué)習(xí)能力,但其訓(xùn)練時(shí)間過(guò)長(zhǎng),訓(xùn)練速度過(guò)慢,本文從網(wǎng)絡(luò)結(jié)構(gòu)、學(xué)習(xí)算法和硬件系統(tǒng)3個(gè)方面對(duì)CNN的改進(jìn)進(jìn)行總結(jié)(如圖3所示)。

        圖3 卷積神經(jīng)網(wǎng)絡(luò)的改進(jìn)

        2.2.1網(wǎng)絡(luò)結(jié)構(gòu)

        多輸入卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)[18]將原數(shù)據(jù)樣本梯度信息(水平梯度、垂直梯度、兩個(gè)對(duì)角梯度)同時(shí)輸入卷積神經(jīng)網(wǎng)絡(luò),能更充分利用原始數(shù)據(jù)中隱含的特征表達(dá);漸進(jìn)式網(wǎng)絡(luò)擴(kuò)展結(jié)構(gòu)通過(guò)不斷調(diào)整訓(xùn)練集來(lái)改變網(wǎng)絡(luò)結(jié)構(gòu),尤其加強(qiáng)訓(xùn)練分類(lèi)錯(cuò)誤的數(shù)據(jù)集,從而提高分類(lèi)精度;自適應(yīng)級(jí)聯(lián)卷積深層神經(jīng)網(wǎng)絡(luò)[19]用高斯分布來(lái)表示預(yù)測(cè)位置和真實(shí)位置的距離達(dá)到人臉校準(zhǔn),降低了復(fù)雜性、增加了穩(wěn)健性;三維卷積神經(jīng)網(wǎng)絡(luò)模型[20]通過(guò)在空間和時(shí)序上運(yùn)用三維卷積提取特征,基于輸入幀生成多個(gè)特征圖通道,將所有通道的信息結(jié)合獲得最后的特征表示;多重卷積神經(jīng)網(wǎng)絡(luò)是由多個(gè)高識(shí)別率的小卷積神經(jīng)網(wǎng)絡(luò)組成,易于調(diào)節(jié)參數(shù),可擴(kuò)展性強(qiáng)。

        2.2.2學(xué)習(xí)算法

        對(duì)于優(yōu)化算法,在CNN的全連接層引入Dropout或DropConnect防止過(guò)擬合現(xiàn)象;采用糾正線性單元(Relu)[21]函數(shù)代替常用的sigmoid、使用隨機(jī)對(duì)角算法優(yōu)化訓(xùn)練提高網(wǎng)絡(luò)收斂速度;基于Fisher準(zhǔn)則[22]的深度學(xué)習(xí)算法在保持樣本類(lèi)內(nèi)距離小、類(lèi)間距離大的同時(shí)也考慮誤差的最小化,使權(quán)值能更加快速地逼近有利于分類(lèi)的最優(yōu)值,降低了時(shí)間復(fù)雜度并達(dá)到較好的識(shí)別效果。CNN在分類(lèi)識(shí)別過(guò)程中與視覺(jué)注意模型、多尺度滑動(dòng)窗口有效結(jié)合先對(duì)物體定位;與SVM[23]、隨機(jī)森林、徑向基網(wǎng)絡(luò)、Softmax分類(lèi)器結(jié)合,挖掘本質(zhì)信息再直接智能識(shí)別;在CNN中引入了遞歸神經(jīng)網(wǎng)絡(luò),先通過(guò)一級(jí)卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)原始圖像的組合特征,再通過(guò)一級(jí)卷積和一級(jí)遞歸神經(jīng)網(wǎng)絡(luò)分層提取特征,最后對(duì)特征向量進(jìn)行分類(lèi)。

        2.2.3硬件系統(tǒng)

        深度學(xué)習(xí)性能的提升,需要高計(jì)算密度的硬件設(shè)備支持。CPU由于其自身特點(diǎn)無(wú)法充分地挖掘 CNN內(nèi)部的并行性;GPU可通過(guò)其巨型并行結(jié)構(gòu)以相對(duì)低的代價(jià)實(shí)現(xiàn)高計(jì)算量;FPGA即現(xiàn)場(chǎng)可編程門(mén)陣列作為一種計(jì)算密集型加速部件,通過(guò)將算法映射到FPGA上的并行硬件進(jìn)行加速;將一個(gè)深層CNN轉(zhuǎn)換成一個(gè)脈沖神經(jīng)網(wǎng)絡(luò)(SNN)映射CNN到一個(gè)基于Spike的硬件架構(gòu)[24]比基于FPGA硬件的CNN實(shí)施達(dá)到兩個(gè)數(shù)量級(jí)以上的高效率。

        3 堆棧自編碼器(SAE)

        本文將堆棧自編碼器映射在一個(gè)二維空間中,縱軸以時(shí)間為序探索發(fā)展歷程,橫軸以方法改進(jìn)作為指針綜述相應(yīng)編碼器的進(jìn)展,具體如圖4所示??v觀時(shí)間軸的進(jìn)程:以1986年Rumelhart提出的自動(dòng)編碼器作為起點(diǎn),2006年Hinton提出堆棧自編碼器則是轉(zhuǎn)折點(diǎn),隨后提出稀疏自編碼器、降噪自編碼器、收縮自編碼器、卷積自編碼器、拉普拉斯自編碼器,每一種編碼器又以橫軸為向進(jìn)行改進(jìn)。

        圖4 自編碼器的改進(jìn)

        2006年Hinton提出堆棧自編碼器,它是一種從無(wú)類(lèi)標(biāo)數(shù)據(jù)中分層提取輸入數(shù)據(jù)高維復(fù)雜的特征,得到原始數(shù)據(jù)的分布式特征表示并利用無(wú)監(jiān)督逐層貪心預(yù)訓(xùn)練和系統(tǒng)性參數(shù)優(yōu)化的多層非線性網(wǎng)絡(luò),根據(jù)不同任務(wù)的需要來(lái)調(diào)整參數(shù),穩(wěn)定性、可控性強(qiáng),具有大規(guī)模并行、分布式處理、自組織和自學(xué)習(xí)的特點(diǎn)。

        2007年,Benjio提出稀疏自動(dòng)編碼器,即在自編碼的基礎(chǔ)上增加稀疏性約束條件,提高表示學(xué)習(xí)算法的魯棒性,增強(qiáng)數(shù)據(jù)的線性可分性,使得信息表述的全面性和準(zhǔn)確率得到提高。稀疏自編碼器引入卷積神經(jīng)網(wǎng)絡(luò)和池操作[25],降低計(jì)算成本,減少訓(xùn)練復(fù)雜性;在SAE進(jìn)行無(wú)監(jiān)督特征預(yù)訓(xùn)練時(shí)引入散射小波變換[26]作為初始信號(hào)表示,計(jì)算出多階調(diào)制頻譜系數(shù),經(jīng)過(guò)預(yù)訓(xùn)練、有監(jiān)督微調(diào)進(jìn)行識(shí)別。

        2008年,Vincent提出降噪自動(dòng)編碼器,在訓(xùn)練數(shù)據(jù)中添加腐壞向量,通過(guò)最小化降噪重構(gòu)誤差,從含隨機(jī)噪聲的數(shù)據(jù)中重構(gòu)真實(shí)的原始輸入。將加權(quán)重建損失函數(shù)引入到去噪自動(dòng)編碼器中,構(gòu)造一種加權(quán)去噪自動(dòng)編碼器(WDA)[27]和噪聲分類(lèi)的語(yǔ)音增強(qiáng)的方法;多層降噪自編碼器與欠采樣局部更新的元代價(jià)算法結(jié)合[28],有效利用無(wú)標(biāo)簽樣本、抗噪聲的特性,使組合模型具有代價(jià)敏感、降低不均衡性。

        2010年,Salah提出收縮自動(dòng)編碼器,對(duì)升維和降維的過(guò)程加以限制,其代價(jià)函數(shù)為

        (8)

        其中:λ是反映矩陣正規(guī)化程度的活躍參數(shù)。收縮自編碼模型試圖利用隱單元構(gòu)建一些復(fù)雜非線性流形模型,由于原理復(fù)雜,構(gòu)建和訓(xùn)練模型難度較大,近年來(lái)對(duì)其研究較少。

        2011年,Masci J提出卷積自動(dòng)編碼器,學(xué)習(xí)圖像局部特征,通過(guò)權(quán)重實(shí)現(xiàn)共享,并添加卷積和池化操作,保留數(shù)據(jù)的空間位置信息。在堆疊卷積自動(dòng)編碼器中引入自引導(dǎo)學(xué)習(xí)[29]并結(jié)合強(qiáng)大的時(shí)間緩慢約束從大量序列圖像塊中學(xué)習(xí)恒定表示以提高學(xué)習(xí)表示能力;堆疊的局部卷積自編碼器[30]利用貪婪逐層策略訓(xùn)練堆疊的局部卷積自編碼器,梯度下降法用于訓(xùn)練各個(gè)層,輸入數(shù)據(jù)的表示視為對(duì)象特征,從而提高了3D對(duì)象檢索性能。

        2012年,Taylor深入探討了SAE與無(wú)監(jiān)督特征學(xué)習(xí)之間的聯(lián)系,闡述如何利用自動(dòng)編碼器來(lái)構(gòu)建不同類(lèi)型深度結(jié)構(gòu)。2013年Telmo研究了用不同代價(jià)函數(shù)訓(xùn)練SAE的性能,為代價(jià)函數(shù)優(yōu)化策略的發(fā)展指明方向。2015年,Kui Jia提出一種新的無(wú)監(jiān)督流形學(xué)習(xí)方法—拉普拉斯自動(dòng)編碼器(LAE)[31],從正則函數(shù)的學(xué)習(xí)框架出發(fā),使學(xué)到的編碼功能在數(shù)據(jù)點(diǎn)的局部有防腐性能,具有更好的泛化能力,當(dāng)訓(xùn)練樣本稀缺時(shí),LAE優(yōu)于其他自編碼器。

        4 深度學(xué)習(xí)在醫(yī)學(xué)圖像分析中應(yīng)用

        基于深度學(xué)習(xí)模型結(jié)構(gòu)和學(xué)習(xí)算法的不斷優(yōu)化,深度學(xué)習(xí)醫(yī)學(xué)圖像分析方面應(yīng)用廣泛,本文主要從醫(yī)學(xué)圖像分割、識(shí)別、計(jì)算機(jī)輔助診斷三方面進(jìn)行總結(jié),以期為臨床醫(yī)護(hù)人員提供參考和幫助,也為輔助醫(yī)療和智慧醫(yī)療提供便利。

        4.1醫(yī)學(xué)圖像分割

        在醫(yī)學(xué)圖像分割方面,將深度學(xué)習(xí)算法與其他算法結(jié)合使用,CNN和連通分量算法結(jié)合用于掃描電鏡圖像分割,與隨機(jī)森林結(jié)合用于神經(jīng)細(xì)胞圖像分割,基于超像素和卷積神經(jīng)網(wǎng)絡(luò)的方法用于宮頸癌細(xì)胞的分割;基于導(dǎo)數(shù)和深度學(xué)習(xí)架構(gòu)的檢索方法對(duì)心臟超聲圖像的左心室分割進(jìn)行研究。深度卷積神經(jīng)網(wǎng)絡(luò)用于多模態(tài)同強(qiáng)度的嬰兒腦部圖像的分割[32],三維CNNs對(duì)多模態(tài)圖像特征提取后對(duì)MRI腦腫瘤、膝關(guān)節(jié)軟骨進(jìn)行分割都取得了進(jìn)步,作用于MR圖像的前列腺分割對(duì)于診斷前列腺癌和前列腺癌的放射治療意義重大。

        4.2醫(yī)學(xué)圖像識(shí)別

        在醫(yī)學(xué)圖像分類(lèi)識(shí)別中,將深度信念網(wǎng)絡(luò)用于腦電圖數(shù)據(jù)表現(xiàn)的積極和消極的情感分類(lèi);利用深度學(xué)習(xí)對(duì)基于超聲造影的良性和惡性肝臟局灶性病變進(jìn)行分類(lèi)[33],展現(xiàn)了準(zhǔn)確性、敏感性和特異性上的優(yōu)越性;基于子集[34]的深度學(xué)習(xí)用于RGB-D對(duì)象識(shí)別,原始RGB-D圖像劃分為若干子集,從中學(xué)習(xí)更高級(jí)別的特征被級(jí)聯(lián)為最終特征進(jìn)行分類(lèi),其精度顯著提高。限制玻爾茲曼機(jī)[35]的概率模型用于神經(jīng)影像學(xué)的檢查以此來(lái)識(shí)別固有網(wǎng)絡(luò),適用于分層和多模態(tài)的擴(kuò)展數(shù)據(jù),為今后的神經(jīng)影像學(xué)研究提供了前景;卷積深度信念網(wǎng)絡(luò)考慮到頻域空間變換數(shù)量的最小化[36],開(kāi)辟了深度學(xué)習(xí)在三維圖像分析領(lǐng)域新的方向。

        4.3計(jì)算機(jī)輔助診斷

        在計(jì)算機(jī)輔助診斷方面,利用深度學(xué)習(xí)算法對(duì)前列腺病理圖像組織來(lái)源進(jìn)行判斷、根據(jù)X光片和胸片的集群微鈣化表現(xiàn)檢測(cè)乳腺癌、利用卷積神經(jīng)網(wǎng)絡(luò)對(duì)小細(xì)胞型肺癌輔助檢測(cè)都取得了較高的檢測(cè)率。利用深度玻爾茲曼機(jī)從PET/MRI多模態(tài)融合圖像中挖掘高層次潛在特征,對(duì)AD和MCI的診斷準(zhǔn)確率可高達(dá)95.35%,85.67%[37];CNN用于胸片中胸管的檢測(cè),得到了99.99%的準(zhǔn)確度和特異性,開(kāi)啟了深度學(xué)習(xí)用于人造物體檢測(cè)的先例[38];將降噪自編碼器用于從不完整的腦電圖EEG進(jìn)行特征學(xué)習(xí),使用Lomb-Scargle周期圖對(duì)不完整EEG頻譜能量進(jìn)行評(píng)估[39];中科院金林鵬[40]提出導(dǎo)聯(lián)卷積神經(jīng)網(wǎng)絡(luò),并利用“平移起始點(diǎn)”和“加噪”增加訓(xùn)練樣本數(shù),構(gòu)造了心電圖分類(lèi)模型,并取得83.66%的準(zhǔn)確率。

        5 深度學(xué)習(xí)研究展望

        1)大數(shù)據(jù)潮流。隨著大數(shù)據(jù)時(shí)代的來(lái)臨和存儲(chǔ)技術(shù)的發(fā)展,如何從海量數(shù)據(jù)中挖掘信息至關(guān)重要,所以充分利用大量的無(wú)標(biāo)記數(shù)據(jù)、無(wú)監(jiān)督地進(jìn)行特征學(xué)習(xí)賦予了深度學(xué)習(xí)無(wú)限的發(fā)展?jié)摿?,“大?shù)據(jù)+深度模型”將成為未來(lái)的研究方向。

        2)模型構(gòu)建。深度學(xué)習(xí)模型是具有多層隱含層的人工神經(jīng)網(wǎng)絡(luò),但并不是隱含層越多越好,網(wǎng)絡(luò)層數(shù)的確定和激活函數(shù)的選擇值得探討,并且隨著模型復(fù)雜度的不斷增加,如何衡量訓(xùn)練復(fù)雜度和任務(wù)復(fù)雜度的關(guān)系、如何權(quán)衡模型規(guī)模與訓(xùn)練速度、訓(xùn)練精度之間的關(guān)系都是深度學(xué)習(xí)研究的方向。

        3)特征學(xué)習(xí)。深度學(xué)習(xí)的“深度模型”是手段,“特征學(xué)習(xí)”則是目的,有效的訓(xùn)練算法和連續(xù)的優(yōu)化策略、網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)設(shè)定和優(yōu)化對(duì)于特征選擇極其重要,算法自身和硬件系統(tǒng)的改進(jìn)、與其他方法的融合、結(jié)合復(fù)雜推理表示學(xué)習(xí)系統(tǒng)、操作大量向量的新范式來(lái)代替基于規(guī)則的字符表達(dá)式操作等,都是特征學(xué)習(xí)能力提升的表現(xiàn)。

        4)應(yīng)用拓展。深度學(xué)習(xí)的廣泛應(yīng)用將催生出多個(gè)領(lǐng)域的變革和跨越式發(fā)展,作為新一代信息科學(xué)的主流方法,在圖像識(shí)別、語(yǔ)音識(shí)別、計(jì)算機(jī)視覺(jué)等方面取得進(jìn)步的同時(shí)更應(yīng)拓寬應(yīng)用范圍,對(duì)于智能設(shè)備、無(wú)人駕駛汽車(chē)、機(jī)器人等領(lǐng)域具有非常廣闊的應(yīng)用前景,尤其對(duì)于醫(yī)學(xué)圖像的分析和計(jì)算機(jī)輔助診斷具有直接的現(xiàn)實(shí)意義。

        6 總結(jié)

        深度學(xué)習(xí)已引起了各領(lǐng)域研究人員的廣泛關(guān)注,本文從深度學(xué)習(xí)的基本理論和醫(yī)學(xué)領(lǐng)域的應(yīng)用出發(fā),詳細(xì)闡述了深度信念網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)在網(wǎng)絡(luò)結(jié)構(gòu)、學(xué)習(xí)算法和硬件系統(tǒng)3方面的研究進(jìn)展和堆棧自編碼器隨時(shí)間發(fā)展的不斷改進(jìn),并從醫(yī)學(xué)圖像的分割、識(shí)別和計(jì)算機(jī)輔助診斷3方面總結(jié)了深度學(xué)習(xí)在醫(yī)學(xué)圖像分析領(lǐng)域中的廣泛應(yīng)用,最后從大數(shù)據(jù)浪潮、深度模型構(gòu)建、特征學(xué)習(xí)能力提升、應(yīng)用拓展4個(gè)方面對(duì)深度學(xué)習(xí)未來(lái)的發(fā)展進(jìn)行展望??傊?,借助大數(shù)據(jù)的潮流,結(jié)合深度學(xué)習(xí)自身潛力,爭(zhēng)取在醫(yī)學(xué)領(lǐng)域取得更大的進(jìn)步并早日實(shí)現(xiàn)人工智能的初衷。

        [1]AREL I,ROSE D C, KARNOWSKI T P. Deep machine learning-A new frontier in artificial intelligence research[J].Computational intelligence magazine,2010,5(4):13-18.

        [2]MARKOFF J. Scientists see promise in deep-learning programs[N].The New York Times,2012-11-23.

        [3]PLIS S M ,HJELM D R,SALAKHUTDINOV R,et al. Deep learning for neuroimaging: a validation study[J].Frontiers in neuroscience,2014(8):229.

        [4]李晉徽,楊俊安,王一.一種新的基于瓶頸深度信念網(wǎng)絡(luò)的特征提取方法及其在語(yǔ)種識(shí)別中的應(yīng)用[J].計(jì)算機(jī)科學(xué),2014,41(3):263-266.

        [5]潘廣源,柴偉,喬俊飛. DBN網(wǎng)絡(luò)的深度確定方法[J].控制與決策,2015,30(2):256-260.

        [6]ELFWING S,UCHIBE E,DOYA K.Expected energy-based restricted Boltzmann machine for classification[J]. Neural networks,2015(64):29-38.

        [7]MOCANU D C,AMMAR H B.Factored four way conditional restricted Boltzmann machines for activity recognition[J].Pattern recognition letters,2015(66):100-108.

        [8]LIU P,HAN S Z,MENG Z B,et al. Facial expression recognition via a boosted deep belief network[C]//Proc. the 2014 IEEE Conference on Computer Vision and Pattern Recognition.[S.l.]:IEEE,2014:1805-1812.

        [9]HINTON G. Training products of experts by minimizing contrastive divergence[J].Neural computation,2006,14(8):1771-1800.

        [10]TIELEMAN T.Training restricted Boltzmann machines using approximations to the likelihood gradient[C]//Proc. the 25th International Conference on Machine learning. [S.l.]:IEEE,2008:1064-1071.

        [11]趙彩光,張樹(shù)群,雷兆宜. 基于改進(jìn)對(duì)比散度的GRBM語(yǔ)音識(shí)別[J].計(jì)算機(jī)工程,2015,41(5):213-218.

        [12]LOPES N,RIBEIRO B.Towards adaptive learning with improved convergence of deep belief networks on graphics processing units[J].Pattern recognition,2014,47(1):114-127.

        [13]MANSANET J,ALBIOL A,PAREDES R,et al. Mask selective regularization for restricted Boltzmann machines[J]. Neurocomputing,2015,165:375-383.

        [14]JI N N,ZHANG J S,ZHANG C X. A sparse-response deep belief network based on rate distortion theory[J]. Pattern recognition,2014,47(9):3179-3191.

        [15]JI N N,ZHANG J S,ZHANG C X,et al. Discriminative restricted Boltzmann machine for invariant pattern recognition with linear transformations[J].Pattern recognition letters,2014,45(1):172-180.

        [16]YU W C,ZHUANG F Z,HE Q, et al. Learning deep representations via extreme learning machines[J]. Neurocomputing,2015,149:308-315.

        [17]李抵非,田地,胡雄偉. 基于分布式內(nèi)存計(jì)算的深度學(xué)習(xí)方法[J].吉林大學(xué)學(xué)報(bào)(工學(xué)版),2015,45(3):921-925.

        [18]費(fèi)建超,芮挺,周遊,等.基于梯度的多輸入卷積神經(jīng)網(wǎng)絡(luò)[J].光電工程,2015,42(3):33-38.

        [19]DONG Y,WU Y. Adaptive cascade deep convolutional neural networks for face alignment [J]. Computer standards & interfaces,2015(42):105-112.

        [20]JI S,XU W,YANG M,et al. 3D convolutional neural networks for human action recognition[J]. Pattern analysis and machine intelligence,2013,35(1):221-231.

        [21]SAINATH T N ,KINGSBURY B. Deep convolutional neural networks for large-scale speech tasks[J]. Neural networks,2015(64):39-48.

        [22]孫艷豐,齊光磊,胡永利,等.基于改進(jìn)Fisher準(zhǔn)則的深度卷積神經(jīng)網(wǎng)絡(luò)識(shí)別算法[J].北京工業(yè)大學(xué)學(xué)報(bào),2015,41(6):835-841.

        [23]NIU X X,SUEN C Y. A novel hybrid CNN-SVM classifier for recognizing handwritten digits[J].Pattern recognition,2012,45(4):1318-1325.

        [24]CAO Y Q,CHEN Y,KHOSLA D.Spiking deep convolutional neural networks for energy-efficient object recognition[J].International journal of computer vision,2015,113(1):54-66.

        [25]SU S Z,LIU Z H,XU S P,et al. Sparse auto-encoder based feature learning for human body detection in depth image[J].Signal processing,2015(112):43-52.

        [26]LI S Z,YU B,WU W,et al.Feature learning based on SAE-PCA network for human gesture recognition in RGBD images[J]. Neurocomputing,2015(151):565-573.

        [27]XIA B Y,BAO C C.Wiener filtering based speech enhancement with weighted denoising auto-encoder and noise classification[J].Speech communication,2014,60(2):13-29.

        [28]胡帥,袁志勇,肖玲,等. 基于改進(jìn)的多層降噪自編碼算法臨床分類(lèi)診斷研究[J].計(jì)算機(jī)應(yīng)用研究,2015,5(32):1417-1420.

        [29]KUEN J,LIM K M,LEE C P. Self-taught learning of a deep invariant representation for visual tracking via temporal slowness principle[J].Pattern recognition,2015,48(10):2964-2982.

        [30]LENG B,GUO S,ZHANG X Y,et al. 3D object retrieval with stacked local convolutional autoencoder[J]. Signal processing,2015(112):119-128.

        [31]JIA K,SUN L,GAO S H,et al. Laplacian auto-encoders: an explicit learning of nonlinear data manifold[J]. Neurocomputing,2015(160):250-260.

        [32]ZHANG W L,LI R J,DENG H T,et al. Deep convolutional neural networks for multi-modality isointense infant brain image segmentation[J]. NeuroImage,2015(108):214-224.

        [33]WU K Z,CHEN X,DING M Y. Deep learning based classification of focal liver lesions with contrast-enhanced ultrasound[J].Optik-international journal for light and electron optics,2014,125(15):4057-4063.

        [34]BAI J,WU Y,ZHANG J M,et al. Subset based deep learning for RGB-D object recognition[J]. Neurocomputing,2015(165):280-292.

        [35]HJELM R D,CALHOUN V D,SALAKHUTDINOV R,et al. Restricted Boltzmann machines for neuroimaging:an application in identifying intrinsic networks[J]. NeuroImage,2014,96(8):245-260.

        [36]BROSCH T,TAM R. Efficient training of convolutional deep belief networks in the frequency domain for application to high-resolution 2d and 3d images[J].Neural computation,2015,27(1):211-227.

        [37]SUK H-I,LEE S-W,SHEN D G. Hierarchical feature representation and multimodal fusion with deep learning for AD/MCI diagnosis[J]. NeuroImage,2014(101):569-582.

        [38]MERCAN C A,CELEBI M S. An approach for chest tube detection in chest radiographs[J]. Image processing,2014,8(2):122-129.

        [39]LIA J H, STRUZIKA Z,ZHANGB L,et al. Feature learning from incomplete EEG with denoising autoencoder[J]. Neurocomputing,2015(165):23-31.

        [40]金林鵬,董軍. 面向臨床心電圖分析的深層學(xué)習(xí)算法[J].中國(guó)科學(xué):信息科學(xué),2015,45(3):398-416.

        責(zé)任編輯:閆雯雯

        Research on deep learning and application on medical image

        WANG Yuanyuana, ZHOU Taob, WU Cuiyinga

        (a.SchoolofPublicHealthandManagement;b.SchoolofScience,NingxiaMedicalUniversity,Yinchuan750004,China)

        Deep learning is introduced to the machine learning field and made it more close to artificial intelligence with the big data,in recent years it receives extensive attention from academia to the industry.In this paper, five aspects of work about deep learning are done. Firstly,it describes three parts including model structure(hidden layer,the structure of RBM,the number of DBN),learning algorithms(basic algorithms,optimization algorithm, methods combination)and hardware(GPU,F(xiàn)PGA) about deep belief network. Secondly, it also reviewes model structure(input layer,hidden layer,output layer),learning algorithms and hardware about convolutional neural network.Thirdly, it introduces the development of stacked autoencoder according to the timeline.Fourthly, application of deep learning focused on medical image analysis is discussed,including medical image segmentation,recognition and computer aided diagnosis.Finally,the development orientation is forecasted concentrated on big data,model building,feature extraction and application extension.

        deep learning;deep belief network;convolutional neural network;stacked autoencoder;medical image

        TN911.73

        ADOI: 10.16280/j.videoe.2016.10.024

        國(guó)家自然科學(xué)基金項(xiàng)目(81160183;61561040);寧夏自然科學(xué)基金項(xiàng)目(NZ12179;NZ14085);寧夏高等學(xué)校科研項(xiàng)目(NGY2013062)

        2015-11-26

        文獻(xiàn)引用格式:王媛媛,周濤,吳翠穎. 深度學(xué)習(xí)及其在醫(yī)學(xué)圖像分析中的應(yīng)用研究[J].電視技術(shù),2016,40(10):118-126.

        WANG Y Y,ZHOU T,WU C Y. Research on deep learning and application on medical image [J]. Video engineering,2016,40(10):118-126.

        猜你喜歡
        深度特征模型
        一半模型
        深度理解一元一次方程
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        深度觀察
        深度觀察
        深度觀察
        抓住特征巧觀察
        国产黄色一区二区福利| 久久99热久久99精品| 欧美在线视频免费观看| 高潮喷水无遮挡毛片视频| 无码国产亚洲日韩国精品视频一区二区三区| 免费观看久久精品日本视频| 国产麻豆极品高清另类| 麻豆亚洲一区| 亚洲综合区图片小说区| 亚洲a级片在线观看| 精品久久精品久久精品| 18禁在线永久免费观看 | 中文字幕漂亮人妻在线| 亚洲国产精品无码专区| 亚洲在AV极品无码天堂手机版| 亚洲美女性生活一级片| 三级日韩视频在线观看| 777米奇色8888狠狠俺去啦| 国产精品久久久久国产精品| 国产精品麻豆成人av| 亚洲精品视频中文字幕| 色窝窝亚洲av网在线观看| 中文字幕乱伦视频| 国产一区二区三区精品久久呦| 在线不卡精品免费视频| 亚洲av成人无码一二三在线观看| 久久精品中文字幕一区| 欧美丝袜激情办公室在线观看| 日韩一区二区三区熟女| 国产无遮挡又爽又刺激的视频老师| 亚洲成a人片在线看| 手机在线观看亚洲av| 白嫩人妻少妇偷人精品| 国产成人乱色伦区| 免费在线观看一区二区| 中文字幕人妻互换av| 国产喷水1区2区3区咪咪爱av| 免费毛片在线视频| 亚洲熟女少妇精品久久| 在线观看的网站| 尤物99国产成人精品视频|