皮思遠(yuǎn),唐 洪,肖南峰
(華南理工大學(xué) 計(jì)算機(jī)科學(xué)與工程學(xué)院, 廣州 510006)
隨著工業(yè)4.0的發(fā)展,越來(lái)越多的工業(yè)機(jī)器人(包含末端執(zhí)行器)正在替代工人進(jìn)行各類生產(chǎn)作業(yè),并且有效降低了生產(chǎn)成本[1]。目前的工業(yè)機(jī)器人大多是通過(guò)示教編程來(lái)完成一些特定的生產(chǎn)任務(wù),但在實(shí)際應(yīng)用中,通常需要工業(yè)機(jī)器人完成抓、握、捏、夾、推、拉、插、按、剪、切、敲、打、撕、貼、牽、拽、磨、削、刨、搓等20種生產(chǎn)操作。對(duì)于這些生產(chǎn)操作,現(xiàn)在通用的示教編程方法是令工業(yè)機(jī)器人在固定的軌跡空間中作業(yè),通過(guò)工業(yè)機(jī)器人及其作業(yè)目標(biāo)對(duì)象之間在時(shí)間上操作配合來(lái)完成上述生產(chǎn)操作。故現(xiàn)行的示教編程方法只適用于那些環(huán)境不確定性較低的作業(yè)任務(wù)。
工業(yè)機(jī)器人在上述20種實(shí)際應(yīng)用中,核心問(wèn)題是識(shí)別作業(yè)目標(biāo)對(duì)象。比如,工業(yè)機(jī)器人抓取操作過(guò)程包括抓取檢測(cè)、軌跡規(guī)劃、抓取執(zhí)行3個(gè)部分[2]。抓取檢測(cè)是識(shí)別作業(yè)場(chǎng)景中的物品或物品上的某些可抓取區(qū)域,而傳統(tǒng)的應(yīng)用通過(guò)確保物品出現(xiàn)在預(yù)設(shè)位置或通過(guò)簡(jiǎn)單的基于預(yù)設(shè)特征的視覺(jué)系統(tǒng)解決該問(wèn)題。軌跡規(guī)劃即給出工業(yè)機(jī)器人從當(dāng)前位置運(yùn)動(dòng)到目標(biāo)位置的無(wú)障礙軌跡點(diǎn)。抓取執(zhí)行是通過(guò)開(kāi)環(huán)或閉環(huán)控制工業(yè)機(jī)器人執(zhí)行軌跡規(guī)劃結(jié)果運(yùn)動(dòng)到目標(biāo)位置。抓取檢測(cè)的本質(zhì)是要對(duì)目標(biāo)物品進(jìn)行識(shí)別和定位,目前的主流方法是通過(guò)圖像傳感器或深度傳感器采集場(chǎng)景信息,利用特征算子如HOG、SIFT或粒子濾波[3-6],結(jié)合提取的不同特征與不同分類器算法等進(jìn)行目標(biāo)物品識(shí)別或目標(biāo)分類,例如支持向量機(jī)[2]、條件隨機(jī)場(chǎng)和人工神經(jīng)網(wǎng)絡(luò)等分類器算法[7]。這些算法通過(guò)提取過(guò)分割區(qū)域獲得特征向量并綜合區(qū)域內(nèi)部的局部聯(lián)系給出分類結(jié)果。但同一分割區(qū)域存在不同類像素的干擾影響,且未完全考慮全局結(jié)構(gòu)信息,因此很有必要利用全局信息來(lái)綜合考慮改善傳統(tǒng)方法。
目前,深度學(xué)習(xí)方法是機(jī)器學(xué)習(xí)中最重要的分支,表示為深度結(jié)構(gòu)及復(fù)雜的多層次學(xué)習(xí)算法。研究和實(shí)踐表明:深度學(xué)習(xí)算法憑借多層結(jié)構(gòu)能夠分布式學(xué)習(xí)樣本數(shù)據(jù)中的特征,在隱含層節(jié)點(diǎn)之間通過(guò)連接提取特征[8]。在某些關(guān)鍵任務(wù)如圖像識(shí)別、自然語(yǔ)言處理中獲得倍數(shù)關(guān)系于傳統(tǒng)機(jī)器學(xué)習(xí)算法的表現(xiàn)[9]。2012年Alex教授在ImageNet大規(guī)模視覺(jué)識(shí)別比賽(ILSVRC)中提出的AlexNet卷積深度學(xué)習(xí)模型在Top-5(最高5類概率)錯(cuò)誤率表現(xiàn)為15.3%,將圖像分類水平提升到了一個(gè)新高度[10]。而其后的VGG、Inception、ResNet深度學(xué)習(xí)模型取得了90%以上的準(zhǔn)確率,甚至超出人類專家的分類水平[11-13]。其中,基于VGG泛化出許多其他的結(jié)構(gòu),如R-CNN、Faster-RCNN等用于目標(biāo)檢測(cè)[14-15]。Yolo[16]深度學(xué)習(xí)模型通過(guò)其網(wǎng)絡(luò)結(jié)構(gòu)直接檢測(cè)物品,去掉了中間處理過(guò)程,大大加快了目標(biāo)檢測(cè)速度。深度學(xué)習(xí)方法中的卷積深度學(xué)習(xí)模型對(duì)分類問(wèn)題可以取得優(yōu)秀的效果,但并不適合像素級(jí)的識(shí)別分割任務(wù),因?yàn)樽詈笕B接層的輸出維度固定會(huì)導(dǎo)致前端卷積層輸入緯度固定,輸入維度也被固定導(dǎo)致其不適合輸入圖片尺度變化。
在光學(xué)圖像語(yǔ)義分割問(wèn)題中,有關(guān)學(xué)者提出了以全卷積深度學(xué)習(xí)(fully convolutional network,F(xiàn)CN)為代表的一類像素級(jí)識(shí)別分類學(xué)習(xí)模型,Long等[17]將其應(yīng)用于圖像語(yǔ)義分割任務(wù)。全卷積神經(jīng)網(wǎng)絡(luò)模型不同于以往的深度學(xué)習(xí)模型,它將后端全連接層去除,利用卷積神經(jīng)網(wǎng)絡(luò)獲取的特征進(jìn)行反卷積與反池化操作,以恢復(fù)出物品在像素級(jí)別的檢測(cè)結(jié)果。因?yàn)榫矸e操作并不限定輸入圖像的尺寸大小,從而消除了網(wǎng)絡(luò)輸出大小的限制,使得網(wǎng)絡(luò)夠適應(yīng)各種大小尺寸的圖像,不需要對(duì)圖像進(jìn)行尺寸規(guī)范處理,并避免了使用像素塊需要重復(fù)存儲(chǔ)和計(jì)算卷積的問(wèn)題。由于全卷積神經(jīng)網(wǎng)絡(luò)輸出尺寸可與輸入尺寸相同,因此適合于像素級(jí)的機(jī)器學(xué)習(xí)任務(wù),如語(yǔ)義分割、圖像降噪等。
在上述基礎(chǔ)上,本文提出了一種改進(jìn)型的基于全卷積深度學(xué)習(xí)模型的可抓取物品識(shí)別的機(jī)器學(xué)習(xí)算法,可在像素級(jí)層面上識(shí)別可抓取物品,分割可抓取物品與背景元素。相對(duì)于全卷積神經(jīng)網(wǎng)絡(luò),改進(jìn)的方法提升了算法的識(shí)別準(zhǔn)確性??勺ト∥锲纷R(shí)別與語(yǔ)義分割任務(wù)的區(qū)別在于語(yǔ)義分割需區(qū)別場(chǎng)景中各種物品,對(duì)其進(jìn)行分類與確定位置,而可抓取物品識(shí)別只聚焦在工業(yè)機(jī)器人需要操作的目標(biāo)對(duì)象在機(jī)器人視野中的位置,以配合工業(yè)機(jī)器人進(jìn)行的后續(xù)操作。改進(jìn)的算法不僅可用于可抓取物體識(shí)別,也可用于其他相關(guān)前景分割、物體定位問(wèn)題。
卷積深度學(xué)習(xí)模型是深度學(xué)習(xí)模型中效果突出的一類學(xué)習(xí)模型,卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)模型通過(guò)將網(wǎng)絡(luò)層之間的全連接替換為卷積進(jìn)行操作。例如,二維圖像卷積運(yùn)算可表示為
(1)
式中:g表示二維卷積運(yùn)算某一點(diǎn)的結(jié)果;f表示卷積核函數(shù);m表示二維矩陣中以(x,y)左上角頂點(diǎn)的長(zhǎng)S、寬T的區(qū)域。假設(shè)卷積神經(jīng)網(wǎng)絡(luò)中某一層以k通道的圖像zi作為輸入,輸出為zi+1,該層共c個(gè)卷積核,用?表示二維矩陣與卷積核的運(yùn)算,則卷積層運(yùn)算可表示為
(2)
式(1)和式(2)表明實(shí)際卷積層通過(guò)卷積運(yùn)算實(shí)現(xiàn)了權(quán)值共用,從而減少了大量中間權(quán)值參數(shù)的數(shù)量。并且卷積神經(jīng)網(wǎng)絡(luò)通過(guò)在卷積運(yùn)算后進(jìn)行接池化操作(pooling)進(jìn)一步地實(shí)現(xiàn)特征提取,即把二維卷積運(yùn)算后提取的特征劃分到大小為m×n的不相交區(qū)域,然后對(duì)這些區(qū)域某一統(tǒng)計(jì)特征采樣,如平均值、最大值來(lái)獲取池化后的卷積特征。池化操作可以進(jìn)一步降低網(wǎng)絡(luò)參數(shù)量,避免陷入過(guò)擬合狀況。卷積網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,一般經(jīng)過(guò)多層卷積層提取特征后,后端通過(guò)全連接層將卷積結(jié)果輸出為預(yù)測(cè)向量。
圖1 卷積深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
卷積操作可看作提取輸入不同的特征圖[18],而Zeiler等研究中提出的反卷積概念則與卷積層操作目的相反,其通過(guò)卷積運(yùn)算從卷積提取的特征圖中重構(gòu)原始圖像,如式(3)所示。
?fk,c
(3)
式(3)表明:反卷積可從將提取的k個(gè)特征圖z恢復(fù)原始圖像,通過(guò)學(xué)習(xí)過(guò)程調(diào)整卷積核參數(shù)。 Long等在研究中提出的全卷積深度學(xué)習(xí)模型去除VGG-16卷積神經(jīng)網(wǎng)絡(luò)模型中最后的全連接層,將其通過(guò)反卷積操作(deconvtion)將VGG-16網(wǎng)絡(luò)的中間卷積層輸出的特征圖像恢復(fù)為二維語(yǔ)義分割圖像[17]。Long的研究實(shí)驗(yàn)中還利用了VGG-16的中間卷積層結(jié)果分別給出了3種模型FCN-8x、FCN-16x、FCN- 32x,在pascal voc上超出了傳統(tǒng)的方法。全卷積模型結(jié)構(gòu)如圖2所示。
本文針對(duì)全卷積深度學(xué)習(xí)模型的識(shí)別準(zhǔn)確率進(jìn)行改進(jìn),基于VGG16構(gòu)建了13層全卷積深度學(xué)習(xí)模型,這13層網(wǎng)絡(luò)結(jié)構(gòu)的各層如表1所示,其中每層包含若干次卷積操作,具體網(wǎng)絡(luò)結(jié)構(gòu)模型如圖3所示。經(jīng)過(guò)5層卷積層,每層卷積層后接池化層,再接2層卷積層,繼而經(jīng)過(guò)5層反卷積層與反池化層輸出物品識(shí)別結(jié)果圖像。由表1可知:前6層卷積層與后6層反卷積層操作一一對(duì)應(yīng),第7層為中間過(guò)渡層,銜接卷積層與反卷積層,其中:convk-y,k表示卷積核大小為k×k;y表示使用的卷積核個(gè)數(shù)。
圖2 一般全卷積深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
圖3 13層全卷積深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
表1 全卷積深度學(xué)習(xí)模型結(jié)構(gòu)配置
由于深度學(xué)習(xí)模型隨著層數(shù)加深使得模型變得難以訓(xùn)練,所以Hinton教授等[7,19]于1988年提出反向傳播算法訓(xùn)練神經(jīng)網(wǎng)絡(luò)。但由于實(shí)際問(wèn)題多是非凸性優(yōu)化問(wèn)題,隨著網(wǎng)絡(luò)層數(shù)加深容易陷入局部最優(yōu)情況或出現(xiàn)過(guò)擬合情況,但基于動(dòng)量的訓(xùn)練算法能夠緩解這一情況[20]。為此,本研究中應(yīng)用的反池化操作將對(duì)應(yīng)最大池化采樣結(jié)果復(fù)原到原矩陣對(duì)應(yīng)位置,并對(duì)余下位置進(jìn)行線性插值填充。傳統(tǒng)的多層神經(jīng)網(wǎng)絡(luò)由于采用Sigmoid函數(shù)而導(dǎo)致反向傳播時(shí)梯度發(fā)生彌散。Sigmoid激活函數(shù)及其導(dǎo)數(shù)表示為式(4)和式(5),式(6)為深度學(xué)習(xí)模型中權(quán)值更新方式。
(4)
f′(x)=f(x)(1-f(x))
(5)
wt=wt-ηL(Zn,wt)
(6)
式(6)中:L′(Z,wt)表示誤差函數(shù)對(duì)wt求導(dǎo);wt表示第t層深度學(xué)習(xí)模型的權(quán)值;Z為深度學(xué)習(xí)模型每一層輸出;Zn為深度學(xué)習(xí)模型最終輸出。根據(jù)反向傳播方程鏈?zhǔn)椒▌t,結(jié)合式(3),誤差函數(shù)L對(duì)中間層權(quán)值求導(dǎo)表示為式(7)和式(8)。
L′(Z,wt)=L′(zn,zn-1)f′(zn-1,wt)
(7)
f′(zn-1,wt)=f′(zn-2)(1-f′(zn-2)wn-1…f′(zt-1,wt)
(8)
當(dāng)Sigmoid激活函數(shù)在趨近0或1時(shí),梯度趨向于0,導(dǎo)致多層神經(jīng)網(wǎng)絡(luò)前段神經(jīng)單元得不到反饋激勵(lì),即導(dǎo)致梯度彌散現(xiàn)象。限制性線性單元(rectified linear units,Relu)[21]是一種新的激活函數(shù),表示為
(9)
Relu激活函數(shù)的梯度恒定(0或1),當(dāng)x=0,定義其梯度為0,這一特性使其避免深度學(xué)習(xí)模型反向多層傳播導(dǎo)致梯度發(fā)生彌散現(xiàn)象,能使深度學(xué)習(xí)模型更快收斂,且Relu函數(shù)的一端為0,可以得到單側(cè)抑制,這與生物學(xué)神經(jīng)元研究符合,并能使傳遞數(shù)據(jù)變得稀疏。
本研究提出的全卷積深度學(xué)習(xí)模型使用Relu函數(shù)作為網(wǎng)絡(luò)層中的激活函數(shù)。另在本文第3節(jié)的實(shí)驗(yàn)中使用滑動(dòng)平均權(quán)值更新方式,權(quán)值更新方式為
wt=awt+(1-α)(wt-ηL′(zn,wt))
(10)
與普通的權(quán)值更新方式相比,通過(guò)增加超參數(shù)α能夠控制權(quán)值變化速度,提高模型健壯性。并且通過(guò)對(duì)網(wǎng)絡(luò)輸出結(jié)果進(jìn)行聚類分析,以最多分類像素點(diǎn)代表的物體表示前景物體,可得到最終識(shí)別結(jié)果。
本文實(shí)驗(yàn)所使用的測(cè)試數(shù)據(jù)為康奈爾抓取數(shù)據(jù)集(cornell grasping dataset,CGD),該數(shù)據(jù)集包含了281種生活中常見(jiàn)的物品,例如杯子、剃須刀、剪刀等,如圖4所示。數(shù)據(jù)集總共為1 034張圖像,每張圖像大小為640像素×480像素。由于原始圖像不包含物品標(biāo)注信息。故需要對(duì)數(shù)據(jù)進(jìn)行預(yù)處理,數(shù)據(jù)集中提供背景圖像信息。直接去除背景會(huì)導(dǎo)致存有陰影,因此需要手動(dòng)對(duì)圖像進(jìn)行精細(xì)處理,將圖片變換為以某一顏色指代物品與黑色指代背景的分割圖像,數(shù)據(jù)集處理流程如圖5所示,其中圖像與背景相減結(jié)果對(duì)應(yīng)圖6(a);去除孤立像素,并手動(dòng)去除陰影區(qū)域的結(jié)果對(duì)應(yīng)圖6(b);分配圖像中物品特定顏色結(jié)果對(duì)應(yīng)圖6(c)。數(shù)據(jù)預(yù)處理后,利用數(shù)據(jù)增強(qiáng)方法,以圖像為中心順時(shí)針旋轉(zhuǎn)5°,15°與-5°,-15°增加4倍數(shù)據(jù),并通過(guò)以圖片中心截取邊界20像素與40像素,最后將樣本增大至8 272份樣例。
圖4 康奈爾抓取數(shù)據(jù)集中的樣例
本文研究的實(shí)驗(yàn)基于Tensorflow框架,采用Linux系統(tǒng)作為運(yùn)行平臺(tái),在配置為intel I7 CPU,Nvidia Gtx1080 GPU,32 G內(nèi)存的硬件平臺(tái)上進(jìn)行試驗(yàn)。預(yù)先使用Imagenet數(shù)據(jù)集對(duì)以前7層卷積層與3層全連接層組成的卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行預(yù)訓(xùn)練,學(xué)習(xí)大量物品的真實(shí)特征。之后將網(wǎng)絡(luò)后端的全連接層改為本模型中的5層反卷積層,以及本實(shí)驗(yàn)提出的改進(jìn)型全卷積深度學(xué)習(xí)模型,在康奈爾抓取數(shù)據(jù)集進(jìn)行參數(shù)調(diào)整(fine-tuning)。
圖5 數(shù)據(jù)集處理流程
圖6 物品分割處理結(jié)果
首先進(jìn)行FCN-8x、FCN-16x、FCN-32x在預(yù)處理后的數(shù)據(jù)集上實(shí)驗(yàn)。針對(duì)3種全卷積深度學(xué)習(xí)模型分別訓(xùn)練選擇最佳的結(jié)果,與本文提出的全卷積物品識(shí)別深度學(xué)習(xí)模型算法進(jìn)行對(duì)比實(shí)驗(yàn),結(jié)果如表2所示。本文研究利用的評(píng)判標(biāo)準(zhǔn)為像素分類的準(zhǔn)確率,表示為
(11)
式中:ti表示為i類像素總數(shù)量;ni表示為分類為i類的i類像素?cái)?shù)量。最終各模型的預(yù)測(cè)像素類別準(zhǔn)確率如表3所示。由于每個(gè)測(cè)試用例包含單一的物體,因此前景準(zhǔn)確率、背景準(zhǔn)確率的計(jì)算方法都為式(11),而總準(zhǔn)確率表示為
(12)
式中:f表示前景物物品像素;b表示背景像素。實(shí)驗(yàn)結(jié)果表明:相對(duì)于FCN-8X只利用一次反卷積層,增加反池化層與反卷積層能夠使物品識(shí)別的準(zhǔn)確率進(jìn)一步提升,由于背景像素占圖片比例較大,可以看出背景區(qū)域的錯(cuò)誤率較低,而由于物品形狀各異,識(shí)別屬于物品的像素比較困難。由表3所示的實(shí)驗(yàn)結(jié)果可知:本文提出的模型相對(duì)FCN-8x的整體效果由71.2%上升到77.4%,提升了6.2%,且實(shí)驗(yàn)結(jié)果也表明局部區(qū)域更加貼合數(shù)據(jù)樣本。
表2 模型預(yù)測(cè)結(jié)果
表3 模型準(zhǔn)確率表現(xiàn)
本文引入和改進(jìn)了全卷積深度學(xué)習(xí)模型用于解決可抓取物品的識(shí)別問(wèn)題,對(duì)于已有的FCN-8x、FCN-16x、FCN32x進(jìn)行試驗(yàn),并考慮其不足,提出了改進(jìn)的全卷積深度學(xué)習(xí)模型用于可抓取物品識(shí)別,應(yīng)用插值方式進(jìn)行反池化操作,可以有效地改進(jìn)像素級(jí)的物品識(shí)別準(zhǔn)確率,將分類結(jié)果提升了3.8%,圖像細(xì)節(jié)信息得到改善。此方法不僅適用于可抓取物品識(shí)別領(lǐng)域,而且還可應(yīng)用于其他像素級(jí)物品檢測(cè)問(wèn)題。本文的后續(xù)工作將在不斷提高識(shí)別準(zhǔn)確率的基礎(chǔ)上進(jìn)一步提高時(shí)間效率。
[1] 王田苗,陶永.我國(guó)工業(yè)機(jī)器人技術(shù)現(xiàn)狀與產(chǎn)業(yè)化發(fā)展戰(zhàn)略[J].機(jī)械工程學(xué)報(bào),2014,50(9):1-13.
[2] SAXENA A,DRIEMEYER J,KEARNSs J,et al.Learning to grasp novel objects using vision[M]//Experimental Robotics.[S.l.]:Springer Berlin Heidelberg,2008:33-42.
[3] 戰(zhàn)強(qiáng),吳佳.未知環(huán)境下移動(dòng)機(jī)器人單目視覺(jué)導(dǎo)航算法[J].北京航空航天大學(xué)學(xué)報(bào),2008,34(6):613-617.
[4] 張雪華,劉華平,孫富春,等.采用 Kinect 的移動(dòng)機(jī)器人目標(biāo)跟蹤[J].智能系統(tǒng)學(xué)報(bào),2014,(1):34-39.
[5] 王修巖,程婷婷.基于單目視覺(jué)的工業(yè)機(jī)器人目標(biāo)識(shí)別技術(shù)研究[J].機(jī)械設(shè)計(jì)與制造,2011,(4):155-157.
[6] 胡仕玲,顧爽,陳啟軍.基于HOG的物品分類方法[C]//中國(guó)智能機(jī)器人學(xué)術(shù)研討會(huì)論文集.深圳:北京大學(xué)深圳研究生院,2011.
[7] ROSENBLATT F.The perceptron,a perceiving and recognizing automaton project para[M].New York:Cornell Aeronautical Laboratory,1957.
[8] BENGIO Y.Learning deep architectures for ai.foundations and trends R in machine learning [J].Cited on,2009,2(1):1-127.
[9] LECUN Y,BENGIO Y,HINTON G.Deep learning[J].Nature,2015,521(7553):436-444.
[10] KRIZHEVSKY A,SUTSKEVER I,HINTON G E.ImageNet classification with deep convolutional neural networks[C]//International Conference on Neural Information Processing Systems.USA:[s.n.],2012:1097-1105.
[11] SIMONYAN K,ZISSERMAN A.Very Deep Convolutional Networks for Large-Scale Image Recognition[J].Computer Science,2014(4):1409-1556.
[12] SZEGEDY C,LIU W,JIA Y,et al.Going deeper with convolutions[C]//Computer Vision and Pattern Recognition.[S.l.]:IEEE,2015:1-9.
[13] He K,Zhang X,Ren S,et al.Deep residual learning for image recognition[C]//Proceedings of the IEEE conference on computer vision and pattern recognition.[S.l.]:IEEE,2016:770-778.
[14] GIRSHICK R,DONAHUE J,DARRELL T,et al.Rich feature hierarchies for accurate object detection and semantic segmentation[C]//Proceedings of the IEEE conference on computer vision and pattern recognition.USA:IEEE,2014:580-587.
[15] REN S,HE K,GIRSHICK R,et al.Faster R-CNN:Towards real-time object detection with region proposal networks[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2017,39(6):1137-1149.
[16] REDMON J,F(xiàn)ARHADI A.YOLO9000:better,faster,stronger[Z].2016.
[17] LONG J,SHELHAMER E,DARRELL T.Fully convolutional networks for semantic segmentation [J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2017,39(4):640-651.
[18] LECUN Y,BOTTOU L,BENGIO Y,et al.Gradient-based learning applied to document recognition[J].Proceedings of the IEEE,1998,86(11):2278-2324.
[19] RUMELHART D E,HINTON G E,WILLIAMS R J.Learning internal representations by error propagation[J].Readings in Cognitive Science,1988,1:399-421.
[20] SUTSKEVER I,MARTENS J,DAHL G,et al.On the importance of initialization and momentum in deep learning[C]//International Conference on International Conference on Machine Learning.2013:1139-1147.
[21] GLOROT X,BORDES A,BENGIO Y.Deep sparse rectifier neural networks[C]//Proceedings of the Fourteenth International Conference on Artificial Intelligence and Statistics.USA:[s.n.],2011:315-323.