亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        融合深度學(xué)習(xí)的無(wú)人駕駛多目標(biāo)檢測(cè)算法

        2019-10-18 02:57:59朱玉剛
        軟件導(dǎo)刊 2019年9期
        關(guān)鍵詞:目標(biāo)檢測(cè)無(wú)人駕駛深度學(xué)習(xí)

        朱玉剛

        摘 要:目標(biāo)檢測(cè)是目前計(jì)算機(jī)視覺領(lǐng)域非常熱門的研究方向,是無(wú)人駕駛技術(shù)重要環(huán)節(jié)。為提高行車過程中目標(biāo)檢測(cè)精度并改善基于單發(fā)多目標(biāo)檢測(cè)器在訓(xùn)練時(shí)出現(xiàn)的正負(fù)樣本失衡問題,基于車載視頻,運(yùn)用深度學(xué)習(xí)算法中具有強(qiáng)大性能的SSD模型,通過引入Focal Loss函數(shù)設(shè)計(jì)新的損失函數(shù),解決樣本失衡問題;同時(shí)在不降低檢測(cè)速率的情況下,提高檢測(cè)精度?;谧孕胁杉能囕d視頻數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),結(jié)果表明,改進(jìn)后SSD模型的mAP相較于原始SSD模型提高了3%,達(dá)到74%。

        關(guān)鍵詞:深度學(xué)習(xí);無(wú)人駕駛;SSD;目標(biāo)檢測(cè);Focal Loss

        DOI:10. 11907/rjdk. 191064 開放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID):

        中圖分類號(hào):TP312文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1672-7800(2019)009-0042-05

        Multi-Object Detection Algorithm for Unmanned Driving Based on Deep Learning

        ZHU Yu-gang

        (School of Electronics and Communication,Hangzhou Dianzi University, Hangzhou 310018, China)

        Abstract: Object detection is a very popular direction in the field of computer vision, especially in the field of unmanned driving technology. In order to improve the detection accuracy of objects encountered in the driving process and improve the imbalance of positive and negative samples based on single Shot MultiBox Detector (SSD) in training, based on vehicle video, this paper uses SSD model which has strong performance in deep learning algorithm, and designs a new loss function by introducing Focal Loss function to solve the problem of sample imbalance. In this way, the detection accuracy is improved without reducing the detection rate. This method is more effective and convenient. Based on the self-collected vehicle video data set, the experimental results show that the mAP (mean Average Precision) of the improved SSD model is 3% higher than that of the original SSD model, up to 74%.

        Key Words: deep learning;?unmanned vehicle; SSD; object detection; Focal Loss

        0 引言

        隨著科技的發(fā)展,目標(biāo)檢測(cè)成為計(jì)算機(jī)視覺研究熱門課題,可應(yīng)用于無(wú)人駕駛、視頻監(jiān)控、行人檢測(cè)、海面艦船檢測(cè)等多個(gè)方面[1]。傳統(tǒng)目標(biāo)檢測(cè)方法通常采用機(jī)器學(xué)習(xí)方法,即特征工程結(jié)合分類器。首先使用算子(如HOG[2]、SHIFT[3]、Haar[4])提取特征,然后選擇合適的分類器(如SVM[5]、Fisher[6]、Adaboosting[7])依據(jù)特征進(jìn)行分類,得到目標(biāo)檢測(cè)結(jié)果。但是傳統(tǒng)方法存在兩個(gè)致命缺點(diǎn):①選擇的算子不適應(yīng)所有特征的提取,即提取的部分特征沒有很強(qiáng)的代表性;②算子選擇依賴于大量人工經(jīng)驗(yàn)。隨著硬件和大數(shù)據(jù)的發(fā)展,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法克服了以上兩個(gè)缺點(diǎn),逐漸替代了傳統(tǒng)方法,并且提升了目標(biāo)檢測(cè)精度和魯棒性,使特征更豐富、表達(dá)能力更強(qiáng)。

        目前,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法主要分為兩類:一類是基于建議框+分類的目標(biāo)檢測(cè)方法,典型代表有R-CNN系列(R-CNN[8]、SPPnet[9]、Fast R-CNN[10]以及Faster R-CNN[11]),其檢測(cè)效果佳,但是在速度方面還遠(yuǎn)不能滿足實(shí)時(shí)檢測(cè)需求。因此在提高平均精度均值(mean Average Precision,mAP)的同時(shí)兼顧速度逐漸成為目標(biāo)檢測(cè)研究方向;另一類是基于回歸思想的深度學(xué)習(xí)目標(biāo)檢測(cè)模型,典型代表有YOLO[12]、SSD[13]。YOLO雖然能夠達(dá)到實(shí)時(shí)效果,但是其mAP與第一類方法的結(jié)果存在較大差異,且YOLO存在兩個(gè)缺點(diǎn):①只用到最后的特征層,所以對(duì)于多尺度目標(biāo)檢測(cè)效果較差;②YOLO仍然使用全連接層進(jìn)行最后分類,準(zhǔn)確性較差。相比而言,SSD網(wǎng)絡(luò)采用圖像金字塔結(jié)構(gòu),多尺度目標(biāo)檢測(cè)效果較好,適合本文多目標(biāo)數(shù)據(jù)集。另外SSD使用卷積層替代了最后全連接層,故定位更準(zhǔn)確,在具有較好實(shí)時(shí)性的同時(shí)mAP更高,其速度可與YOLO媲美,mAP與Faster RCNN保持在相同水平,但是以上方法都存在正負(fù)樣本失衡問題。

        本文綜合考慮檢測(cè)速度和精度,采用SSD網(wǎng)絡(luò)進(jìn)行研究,并引入Focal Loss損失函數(shù)[14]設(shè)計(jì)新的損失函數(shù),替換原有在線難分樣本挖掘(Online Hard Example Mining,OHEM)[15]機(jī)制,更高效地解決了正負(fù)樣本失衡問題,提高了整體檢測(cè)平均精度。

        1 SSD目標(biāo)檢測(cè)網(wǎng)絡(luò)

        SSD是目前綜合性能最好的網(wǎng)絡(luò)。它使用3×3的卷積核替換VGGNet最后全連接層[16]進(jìn)行分類回歸,可利用目標(biāo)周圍信息進(jìn)行預(yù)測(cè),而不是利用全局信息,使定位更加準(zhǔn)確。另外其使用特征金字塔結(jié)構(gòu),將不同特征層用于最后結(jié)果預(yù)測(cè),可涵蓋不同維度、保證特征豐富性,并且使用淺層特征層負(fù)責(zé)小目標(biāo)檢測(cè),深層特征層負(fù)責(zé)大目標(biāo)檢測(cè),可進(jìn)一步提高檢測(cè)效果。特征金字塔設(shè)計(jì)如圖1所示。另外,SSD在多個(gè)特征層上生成不同尺度、不同長(zhǎng)寬比的錨框,產(chǎn)生良好的多尺度目標(biāo)檢測(cè)效果。

        1.1 網(wǎng)絡(luò)架構(gòu)

        SSD模型思想仍然延續(xù)了傳統(tǒng)目標(biāo)檢測(cè)思想,前面的卷基層用于特征提取,后面的Softmax層用于分類。SSD模型采用VGG16基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu)。SSD網(wǎng)絡(luò)有兩種架構(gòu),一種適合于圖片分辨率為300×300的輸入(SSD300),另一種適合于分辨率為512×512的輸入圖片(SSD512),結(jié)構(gòu)如圖2所示。

        從圖2可以看出,SSD網(wǎng)絡(luò)構(gòu)建了特征金字塔,充分利用特征層信息,整合Conv4_3、fc7、Conv6_2、Conv7_2、Conv8_2、Conv9_2和Conv10_2七層特征層信息進(jìn)行訓(xùn)練。

        1.2 默認(rèn)框

        SSD中每個(gè)層上的候選框生成方法如下:

        特征層每個(gè)單元均會(huì)生成K個(gè)默認(rèn)框,默認(rèn)框有不同的長(zhǎng)寬比,假設(shè)用m個(gè)特征層進(jìn)行預(yù)測(cè),則每個(gè)特征層默認(rèn)框尺寸可由式(1)得到。

        其中,[Smin=0.2],[Smax=0.9],分別表示最底層默認(rèn)框基礎(chǔ)尺寸是0.2,最高層默認(rèn)框基礎(chǔ)尺寸是0.9。按照基礎(chǔ)尺寸生成一個(gè)正方形,但默認(rèn)框數(shù)量太少且類型單一,所以引入5種長(zhǎng)寬比為:[r=1,2,3,1/2,1/3]。

        然后按照基礎(chǔ)尺寸和長(zhǎng)寬比,生成默認(rèn)框,則一個(gè)特征點(diǎn)對(duì)應(yīng)多個(gè)默認(rèn)框。隨后訓(xùn)練內(nèi)容是在這些默認(rèn)框中篩選與坐標(biāo)框重合較多的框,并進(jìn)行回歸,得到預(yù)測(cè)框,其中寬的計(jì)算公式為:

        因此,每個(gè)特征點(diǎn)對(duì)應(yīng)6種默認(rèn)框。這樣定義默認(rèn)框尺寸的優(yōu)勢(shì)是使不同特征層有不同尺寸,在同一個(gè)特征層有不同的長(zhǎng)寬比,因此可以覆蓋輸入圖像中各種形狀和大小目標(biāo)。本文根據(jù)采集的數(shù)據(jù)集目標(biāo)尺寸,將[Smin]設(shè)置為0.3,[Smax]設(shè)置為0.7,長(zhǎng)寬比設(shè)置為{1,1/3,2/3,3,3/2}。

        1.3 正負(fù)樣本

        產(chǎn)生候選區(qū)域框后需要進(jìn)行篩選,并打上相應(yīng)標(biāo)簽。在SSD中篩選步驟如下:

        (1)計(jì)算各框與真實(shí)框的重合度(Intersection over Union,IoU)[17],保留與真實(shí)框重疊度最高的候選框,并給該候選框打上與之匹配的真實(shí)框類別標(biāo)簽,即可保證每個(gè)真實(shí)框均有唯一一個(gè)最相似的候選區(qū)域框與之對(duì)應(yīng)。

        (2)設(shè)置一個(gè)閾值,將沒有配對(duì)的候選區(qū)域框與任意一個(gè)真實(shí)框嘗試配對(duì),若兩者IoU大于閾值,則該候選框?yàn)檎龢颖厩掖蛏蠈?duì)應(yīng)標(biāo)簽。在SSD中該閾值設(shè)置為0.5。

        (3)將仍沒有配對(duì)到真實(shí)框的候選框設(shè)置為負(fù)樣本。

        通過上述方法得到的負(fù)樣本數(shù)量遠(yuǎn)遠(yuǎn)大于正樣本。負(fù)樣本和正樣本的不平衡將導(dǎo)致在訓(xùn)練時(shí)難以收斂,而且負(fù)樣本太多,已經(jīng)可以主導(dǎo)損失函數(shù)的大小,所以正樣本存在的意義不大。利用在線難分樣本挖掘(Online Hard Example Mining,OHEM)的方法提升對(duì)難分樣本的處理效率,同時(shí)控制正負(fù)樣本比例。其實(shí)現(xiàn)方法是將所有目標(biāo)框?qū)?yīng)的損失排序,選出損失較大的候選框進(jìn)行訓(xùn)練,通過該篩選方法,將正負(fù)樣本比例控制在1∶3[18]。但是該方法缺點(diǎn)明顯:首先需要額外的時(shí)間和內(nèi)存進(jìn)行損失存儲(chǔ)及排序,另外由于剔除易分樣本,即完全忽略易分樣本對(duì)網(wǎng)絡(luò)參數(shù)微調(diào)效果,會(huì)導(dǎo)致易分樣本無(wú)法進(jìn)一步提升訓(xùn)練質(zhì)量。

        針對(duì)以上算法缺陷,本文考慮刪除網(wǎng)絡(luò)原始OHEM機(jī)制,將焦點(diǎn)損失(Focal Loss)函數(shù)引入SSD損失函數(shù)以解決樣本失衡問題,同時(shí)提高檢測(cè)精度。

        2 模型優(yōu)化

        2.1 原始損失函數(shù)

        SSD損失函數(shù)包括目標(biāo)置信度損失和位置坐標(biāo)損失兩部分,其表達(dá)式如下:

        c是由Softmax產(chǎn)生的每一類的概率,根據(jù)實(shí)際標(biāo)簽的值計(jì)算對(duì)應(yīng)的損失函數(shù)值。訓(xùn)練目的是求得使損失函數(shù)最小的參數(shù)。

        2.2 新?lián)p失函數(shù)設(shè)計(jì)

        SSD網(wǎng)絡(luò)中正負(fù)樣本失衡問題具體包括:①負(fù)樣本太多,造成樣本損失太大,淹沒了正樣本,不利于目標(biāo)收斂;②大多數(shù)負(fù)樣本不在正樣本和負(fù)樣本的過渡區(qū),分類很明顯,傳入損失函數(shù)的分?jǐn)?shù)很大,因此單個(gè)樣本損失與反向傳播梯度很小,對(duì)參數(shù)收斂作用有限。雖然SSD在正負(fù)樣本采集中采用了1∶3的比例控制樣本失衡[19],但是完全去除了易分樣本的作用,不利于進(jìn)一步提高網(wǎng)絡(luò)精度。Focal Loss損失函數(shù)通過引入調(diào)制系數(shù),降低了負(fù)樣本對(duì)整個(gè)損失的影響,加大了難分樣本對(duì)整個(gè)損失的影響,其公式如下:

        2.3 Focal Loss反向傳播

        本文在SSD分類回歸和損失函數(shù)設(shè)計(jì)中運(yùn)用了Softmax函數(shù)。Softmax函數(shù)常用于多分類過程中,它將多個(gè)神經(jīng)元輸出映射到(0,1)區(qū)間內(nèi),可以作為概率理解,其函數(shù)如下:

        可根據(jù)式(25)求得梯度,按照反向傳播梯度下降法進(jìn)行整個(gè)網(wǎng)絡(luò)的權(quán)值更新,同時(shí)可看出,本文引入的調(diào)制系數(shù)可控制梯度大小,避免淹沒難分樣本對(duì)梯度的調(diào)節(jié)作用。

        3 實(shí)驗(yàn)

        3.1 數(shù)據(jù)集制作

        本實(shí)驗(yàn)通過行車記錄儀采集車載視頻,每隔3s取一幀,得到的圖片如圖3所示??梢钥吹綀D中包含許多干擾因素,比如左上角的行車記錄儀標(biāo)簽及車內(nèi)圖像,這些噪聲可以剪切掉以避免造成干擾。另外待檢測(cè)目標(biāo)不可能在圖片上方,所以圖片靠上的部分像素也可以剪切掉,縮減圖片尺寸,有利于提高訓(xùn)練速度,減少顯存占用。數(shù)據(jù)集處理前后對(duì)比如圖3所示。

        通過上述方法最終得到1 600張圖片,并將其按5∶2∶1的比例隨機(jī)分配給訓(xùn)練集、測(cè)試集和驗(yàn)證集。所以最終訓(xùn)練圖片為1 000張,測(cè)試圖片400張,驗(yàn)證圖片200張,圖片分辨率為1 920*400;接著在數(shù)據(jù)集中標(biāo)注8個(gè)目標(biāo)分別為car、person、bus、minibus、truck、minitruck、elemotor、tricycle。由于數(shù)據(jù)集中大卡車和公交車樣本不是很充足,所以導(dǎo)致相關(guān)檢測(cè)效果較差,因此本文從KITTI數(shù)據(jù)集中提取對(duì)應(yīng)類別的樣本,處理后加入了本數(shù)據(jù)集。最后統(tǒng)計(jì)數(shù)據(jù)集中包含各個(gè)目標(biāo)的數(shù)量,如圖4所示。

        3.2 實(shí)驗(yàn)結(jié)果分析

        目前有多種深度學(xué)習(xí)框架,比如:Caffe、Caffe2、TensorFlow、Torch、Theano等。本文實(shí)驗(yàn)是基于Ubuntu16.4操作系統(tǒng)的Caffe深度學(xué)習(xí)框架[20]。Caffe(Convolutional Architecture for Feature Embedding)是基于C++/CUDA/Python實(shí)現(xiàn)的,由伯克利視覺和學(xué)習(xí)中心(Berkeley Vision and learning Center,BVLC)開發(fā)的卷積神經(jīng)網(wǎng)絡(luò)框架[21]發(fā)展而來。實(shí)驗(yàn)顯卡為NVIDIA GeForce GTX1080GPU。

        由于實(shí)驗(yàn)采用的激活函數(shù)是ReLU函數(shù),所以如果一個(gè)較大的梯度經(jīng)過一個(gè)神經(jīng)元并更新參數(shù)后,這個(gè)神經(jīng)元很容易“死掉”。因此在訓(xùn)練時(shí)需設(shè)置一個(gè)較小的學(xué)習(xí)率。這個(gè)學(xué)習(xí)率將隨著訓(xùn)練過程發(fā)生變化。本文設(shè)置的初始學(xué)習(xí)率為0.000 1,每?jī)扇f(wàn)次迭代,則學(xué)習(xí)率縮小10倍??偣策M(jìn)行120 000次迭代。在表1中展示本實(shí)驗(yàn)初期結(jié)果。從實(shí)驗(yàn)結(jié)果可以看出將SSD損失函數(shù)換為Focal Loss函數(shù)可以提高mAP。

        從表1可發(fā)現(xiàn),引入Focal Loss損失函數(shù)模型SSD300+Focal和SSD512+Focal之后,整體mAP得到了提升,且根據(jù)圖4各個(gè)類別數(shù)目可發(fā)現(xiàn),F(xiàn)ocal Loss的引入對(duì)于數(shù)量較少的目標(biāo)檢測(cè)效果提升更為明顯,這是由于Focal Loss加強(qiáng)了對(duì)于難分樣本的重視度。如圖5展示了SSD512和SSD512+Focal兩個(gè)模型基于本文數(shù)據(jù)集的識(shí)別效果對(duì)比。

        觀察圖5可以發(fā)現(xiàn),新?lián)p失函數(shù)通過解決樣本失衡問題,提高了整體檢測(cè)效果。原始網(wǎng)絡(luò)沒有檢測(cè)出的許多目標(biāo)以及錯(cuò)檢目標(biāo)均被檢測(cè)出來。

        mAP是用于評(píng)判目標(biāo)檢測(cè)網(wǎng)絡(luò)的標(biāo)準(zhǔn)[22]。一個(gè)模型質(zhì)量不能僅靠準(zhǔn)確率或者召回率進(jìn)行判斷,所以根據(jù)準(zhǔn)確率和召回率畫出每個(gè)類的P-R曲線。曲線下面包絡(luò)的面積為AP,所有AP平均值為mAP[23]。本文用其判斷模型優(yōu)劣。召回率和準(zhǔn)確率的公式分別為:

        4 結(jié)語(yǔ)

        本文介紹了一個(gè)端對(duì)端的多分類器SSD,并將其應(yīng)用在自主采集的行車數(shù)據(jù)集上,實(shí)現(xiàn)了多目標(biāo)實(shí)時(shí)檢測(cè),且優(yōu)化后提高了檢測(cè)效果。SSD原始OHEM機(jī)制在解決正負(fù)樣本失衡問題時(shí)存在種種不足,因此本文設(shè)計(jì)新的損失函數(shù)解決該問題,同時(shí)也提高了對(duì)于難分樣本的挖掘能力與整體模型檢測(cè)精度。通過在自主采集的數(shù)據(jù)集上訓(xùn)練和測(cè)試實(shí)驗(yàn),證明SSD在行車視頻中進(jìn)行目標(biāo)檢測(cè)的實(shí)用性及本文改進(jìn)算法的有效性。雖然本文解決了正負(fù)樣本嚴(yán)重失衡的問題,但SSD等類似目標(biāo)檢測(cè)網(wǎng)絡(luò)在重合度較高的目標(biāo)檢測(cè)中仍存在漏檢或誤檢問題,需進(jìn)一步研究。

        參考文獻(xiàn):

        [1] 趙偉,李欣,王鵬. 復(fù)雜環(huán)境下的車輛目標(biāo)檢測(cè)方法研究[J]. 森林工程,2014,30(3):74-79.

        [2] BLAZ B. Histograms of oriented gradients[C]. San Diego:IEEE Conference on Computer Vision and Pattern Recognition,2005.

        [3] LINDEBERG T. Scale Invariant Feature Transform[C]. Scholarpedia,2012.

        [4] 許慶,高峰,徐國(guó)艷. 基于Haar特征的前車識(shí)別算法[J]. 汽車工程,2013,35(4):381-384.

        [5] HEARST M A, DUMAIS S T, OSUNA E, et al. Support vector machines[J]. IEEE Intelligent Systems & Their Applications, 1998, 13(4):18-28.

        [6] 崔揚(yáng),周澤魁. 基于Fisher準(zhǔn)則的分類器在皮革正反面分類中的應(yīng)用[J]. 江南大學(xué)學(xué)報(bào):自然科學(xué)版, 2004, 3(4):374-377.

        [7] 胡雄心,潘柏松. 基于Adaboosting算法的表面裂紋圖象檢測(cè)[J]. 機(jī)械設(shè)計(jì)與制造, 2010(3):211-213.

        [8] OQUAB M,BOTTOU L, LAPTEV I , et al. Learning and transferring mid-level image representations using convolutional neural networks[J]. '14 Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition,2014:1717-1724.

        [9] HE K,ZHANG X,REN S, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2014, 37(9):1904-16.

        [10] GIRSHICK R. Fast R-CNN[DB/OL]. https://arxiv.org/pdf/1504. 08083.pdf.

        [11] REN S,HE K,GIRSHICK R,et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 39(6):1137-1149.

        [12] REDMON J,DIVVALA S,GIRSHICK R, et al. You only look once: unified, real-time object detection[DB/OL]. https://arxiv.org/pdf/1506.02640.pdf.

        [13] LIU W,ANGUELOV D,ERHAN D, et al. SSD: single shot multibox detector[C].European Conference on Computer Vision,2015:21-37.

        [14] LIN T Y, GOYAL P, GIRSHICK R, et al. Focal Loss for Dense Object Detection[C]. IEEE International Conference on Computer Vision. IEEE Computer Society, 2017:2999-3007.

        [15] HE K,ZHANG X,REN S, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2014, 37(9):1904-16.

        [16] MAURER M, BEHRINGER R, FURST S, et al. A compact vision system for road vehicle guidance[C]. International Conference on Pattern Recognition, 1996:313-317.

        [17] NOWOZIN S. Optimal decisions from probabilistic models: the intersection-over-union case[C]. IEEE Conference on Computer Vision & Pattern Recognition, 2014.

        [18] LONG J,SHELHAMER E,DARRELL T. Fully convolutional networks for semantic segmentation[C].Computer Vision and Pattern Recognition, 2015:3431-3440.

        [19] SUBBURAMAN VB,DESCAMPS A,CARINCOTTE C. Counting people in the crowd using a generic head detector[C]. IEEE Ninth International Conference on Advanced Video and Signal-Based Surveillance,2012,470-475.

        [20] CHAUDHURI D. A simple least squares method for fitting of ellipses and circles depends on border points of a two-tone image and their 3-D extensions[J]. Pattern Recognition Letters, 2010, 31(9):818-829.

        [21] HAN S,MAO H,DALLY W J, et al.Deep compression:compressing deep neural networks with pruning, trained quantization and Huffman coding[C]. International Conference on Learning Representations, 2016:1-14.

        [22] SZELISKI R.計(jì)算機(jī)視覺-算法與應(yīng)用[M]. 艾海舟,興軍亮,譯.北京:清華大學(xué)出版社,2012.

        [23] 宋煥生,張向清,鄭寶峰,等. 基于深度學(xué)習(xí)方法的復(fù)雜場(chǎng)景下車輛目標(biāo)檢測(cè)[J]. 計(jì)算機(jī)應(yīng)用研究,2018(4):1270-1273.

        [24] 敖道敢. 無(wú)監(jiān)督特征學(xué)習(xí)結(jié)合神經(jīng)網(wǎng)絡(luò)應(yīng)用于圖像識(shí)別[D].廣州:華南理工大學(xué),2014.

        (責(zé)任編輯:江 艷)

        猜你喜歡
        目標(biāo)檢測(cè)無(wú)人駕駛深度學(xué)習(xí)
        我們村的無(wú)人駕駛公交
        無(wú)人駕駛車輛
        科學(xué)(2020年3期)2020-11-26 08:18:28
        無(wú)人駕駛公園
        視頻中目標(biāo)檢測(cè)算法研究
        軟件(2016年4期)2017-01-20 09:38:03
        行為識(shí)別中的人體運(yùn)動(dòng)目標(biāo)檢測(cè)方法
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        移動(dòng)機(jī)器人圖像目標(biāo)識(shí)別
        久激情内射婷内射蜜桃人妖| 免费女女同黄毛片av网站| 日韩午夜免费视频精品一区| 风情韵味人妻hd| 99偷拍视频精品一区二区| 久久天堂av色综合| 精品黄色一区二区三区| 国产精品激情自拍视频| 国产精品久久久久久婷婷| 亚洲最大在线精品| 一本色道亚州综合久久精品| 亚洲女人毛茸茸粉红大阴户传播 | 风间由美中文字幕在线| 亚洲av午夜精品无码专区| 摸进她的内裤里疯狂揉她动视频 | 看全色黄大色大片免费久久久| 中文字幕日韩有码国产| 亚洲a∨无码男人的天堂| 国产成人精品无码播放 | 久久精品国产亚洲av网在| 国产精品无码一区二区三级| 一二三四在线视频观看社区| 国产一区二区三区韩国| 深夜日韩在线观看视频| 日日摸天天碰中文字幕你懂的| 亚洲国产人在线播放首页 | 欧美日韩精品一区二区在线视频| 亚洲无码观看a| 国产自拍在线视频91| 免费看黄a级毛片| 久久精品国产热| 中文字幕亚洲综合久久久| 欧洲熟妇色xxxx欧美老妇性| 亚洲 欧美 影音先锋| 人妻爽综合网| 黄片小视频免费观看完整版| 伊人久久大香线蕉综合网站| 51精品视频一区二区三区| 日本国产一区二区在线观看| 亚洲乳大丰满中文字幕| 爱a久久片|