亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學(xué)習(xí)的四旋翼無人機(jī)單目視覺避障方法

        2019-08-01 01:54:12張午陽章偉宋芳龍林
        計(jì)算機(jī)應(yīng)用 2019年4期
        關(guān)鍵詞:目標(biāo)檢測(cè)深度學(xué)習(xí)

        張午陽 章偉 宋芳 龍林

        摘 要:針對(duì)無人機(jī)避障問題,提出一種基于深度學(xué)習(xí)的四旋翼無人機(jī)單目視覺避障方法。首先通過目標(biāo)檢測(cè)框選出目標(biāo)在圖像中的位置,并通過計(jì)算目標(biāo)選框上下邊距的長(zhǎng)度,以此來估量出障礙物到無人機(jī)之間的距離;然后通過協(xié)同計(jì)算機(jī)判斷是否執(zhí)行避障動(dòng)作;最后使用基于Pixhawk搭建的飛行實(shí)驗(yàn)平臺(tái)進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明,該方法可用于無人機(jī)低速飛行條件下避障。該方法所用到的傳感器只有一塊單目攝像頭,而且相對(duì)于傳統(tǒng)的主動(dòng)式傳感器避障方法,所占用無人機(jī)的體積大幅減小。該方法魯棒性較好,能夠準(zhǔn)確識(shí)別不同姿態(tài)的人,實(shí)現(xiàn)對(duì)人避障。

        關(guān)鍵詞:深度學(xué)習(xí);目標(biāo)檢測(cè);單目視覺;無人機(jī)避障

        中圖分類號(hào):TP242

        文獻(xiàn)標(biāo)志碼:A

        文章編號(hào):1001-9081(2019)04-1001-05

        Abstract: A monocular vision obstacle avoidance method for quadrotor based on deep learning was proposed to help quadrotors to avoid obstacles. Firstly, the position of object in the image was obtained by object detection, and by calculating the height of the object box in the image, the distance between quadcopter and obstacle was estimated. Then, whether performing obstacle avoidance was determined by synergetic computer. Finally, experiments were conducted on a flight test platform based on Pixhawk flight control board. The results show that the proposed method can be applied to quadcoptor obstacle avoidance with low speed. Compared with traditional active sensor methods, the proposed method greatly reduces the occupied volume with only one monocular camera as sensor. This method is robust and can identify people with different postures as obstacles.

        Key words: deep learning; object detection; monocular vision; quadcopter obstacle avoidance

        0?引言

        隨著機(jī)器人技術(shù)以及微機(jī)電系統(tǒng)(Micro-Electro-Mechanical System, MEMS)的發(fā)展,無人機(jī)在各領(lǐng)域中的應(yīng)用越來越廣泛。圍繞著無人機(jī)相關(guān)的研究也日趨增多,其中,無人機(jī)的自主飛行技術(shù)一直是研究熱點(diǎn)之一。四旋翼無人機(jī)具有體積小、結(jié)構(gòu)簡(jiǎn)單、機(jī)動(dòng)性強(qiáng)、可垂直起降等固定翼無人機(jī)所不具備的優(yōu)點(diǎn),因此具有很強(qiáng)的適應(yīng)性和廣泛的應(yīng)用場(chǎng)景,可用在航拍、巡檢、物流等低空域任務(wù)當(dāng)中,很多科研機(jī)構(gòu)和高校均對(duì)此展開了不同層次的深入研究。

        對(duì)于固定翼無人機(jī),因其飛行高度較高,在其任務(wù)高度上基本沒有障礙物阻攔,可以人為地為其劃定航線,讓其沿著預(yù)定航線在預(yù)定高度飛行。然而,四旋翼無人機(jī)執(zhí)行任務(wù)時(shí),受限于通信距離以及續(xù)航時(shí)間,其飛行高度一般較低,飛行路徑上可能會(huì)分布著各式各樣的障礙物,比如樓房、樹木、人類等,若四旋翼無人機(jī)不具有避障功能,則會(huì)沿著預(yù)定航線與障礙物相撞,造成財(cái)產(chǎn)損失甚至造成人員傷亡事故。這是一個(gè)客觀存在而且棘手的問題,本文致力于提出此類問題的解決方案。

        目前,有很多科研機(jī)構(gòu)和高校都對(duì)小型四旋翼無人機(jī)的避障問題展開了深入研究,并提出了很多行之有效的解決方案[1-6]。若要實(shí)現(xiàn)避障,首先要使無人機(jī)感知到障礙物的方位,文獻(xiàn)[6]提出了一種基于RealSense相機(jī)的避障方式,通過RealSense相機(jī)獲得當(dāng)前幀的景深圖像,通過對(duì)景深圖像的分層和分割,獲得障礙物的方向和距離信息,以此達(dá)到感知障礙物的目的。在感知到障礙物的空間相對(duì)位置后,無人機(jī)需要對(duì)任務(wù)路徑進(jìn)行重新規(guī)劃,針對(duì)這一問題,文獻(xiàn)[7]提出了一種基于分布感知與決策的避障算法,該算法將避障問題分為了局部決策和全局決策兩部分,這樣做不僅避免了無人機(jī)與障礙物碰撞,同時(shí)也能夠在任務(wù)區(qū)域內(nèi)規(guī)劃出一條最優(yōu)路徑。為了降低無人機(jī)避障系統(tǒng)的成本,Gageik等[8]提出了一種成本較低的避障方案,該方案在盡量減少冗余模塊的基礎(chǔ)上,作了一定的整合優(yōu)化,讓無人機(jī)實(shí)現(xiàn)障礙物檢測(cè)和避障。除此之外,也可以通過同步定位與地圖構(gòu)建(Simultaneous Localization and Mapping, SLAM)[9-11]技術(shù)、并行跟蹤與地圖構(gòu)建(Parallel Tracking and Mapping, PTAM)[12]技術(shù)等實(shí)現(xiàn)無人機(jī)避障功能。

        傳統(tǒng)的避障方式是通過高精度傳感器感知障礙物的空間相對(duì)位置,然后據(jù)此執(zhí)行避障動(dòng)作[7-9,12],此種避障方式精度高,但是由于所依賴的傳感器體積較大,導(dǎo)致無人機(jī)載荷明顯增大,其續(xù)航能力將會(huì)明顯下降;并且其無法對(duì)識(shí)別出的障礙進(jìn)行分類,即其并不知道前方障礙物到底為何物,這樣,無人機(jī)就無法根據(jù)不同障礙物類型作出最優(yōu)的規(guī)避動(dòng)作。近年來,隨著圖像處理及計(jì)算機(jī)視覺技術(shù)的發(fā)展,基于機(jī)器視覺的無人機(jī)避障逐漸成為當(dāng)前無人機(jī)領(lǐng)域的一個(gè)研究熱點(diǎn)[4-6,13]。圖像采集和處理設(shè)備體積小,非常適合無人機(jī)在任務(wù)中攜帶。傳統(tǒng)的視覺識(shí)別是通過特征提取方法來處理圖像信息,然而,它會(huì)受到光照、物體擺放位置等外部因素影響,魯棒性較差,故這種方法適合于特定條件下對(duì)特定物體進(jìn)行識(shí)別。

        近年來,深度學(xué)習(xí)發(fā)展迅速[14-16],其優(yōu)勢(shì)在于不需要人為地指定需要提取的特征值,而是使用大數(shù)據(jù)去訓(xùn)練得到模型,使其自己學(xué)習(xí)總結(jié)目標(biāo)所具備的特征[17]。

        文獻(xiàn)[18]使用基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法對(duì)機(jī)械臂將要抓取之物進(jìn)行檢測(cè)分類,并通過實(shí)驗(yàn)驗(yàn)證了其有效性,其泛化性和魯棒性較好。受其啟發(fā),本文提出一種基于深度神經(jīng)網(wǎng)絡(luò)的四旋翼無人機(jī)避障方法,通過訓(xùn)練集對(duì)模型進(jìn)行訓(xùn)練,使其能夠辨認(rèn)出一定數(shù)量的障礙物,并能識(shí)別前方障礙的類型,即具有障礙物分類的功能。通過機(jī)載協(xié)同計(jì)算機(jī)將目標(biāo)障礙物識(shí)別并框選出來,得到目標(biāo)障礙物在圖像中的位置,進(jìn)而計(jì)算出目標(biāo)障礙物的圖上尺寸,再利用相似三角形原理估量出目標(biāo)障礙物到無人機(jī)之間的間隔,再由機(jī)載協(xié)同計(jì)算機(jī)判斷是否執(zhí)行避障動(dòng)作。該方法能應(yīng)對(duì)各類復(fù)雜場(chǎng)景中的目標(biāo)檢測(cè)任務(wù),例如目標(biāo)被遮擋、亮度變化、目標(biāo)姿態(tài)變化等。系統(tǒng)結(jié)構(gòu)及算法流程如圖1所示。

        1?基于深度學(xué)習(xí)的目標(biāo)檢測(cè)

        在目標(biāo)檢測(cè)領(lǐng)域,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)具有優(yōu)異的特性,其權(quán)重共享網(wǎng)絡(luò)結(jié)構(gòu)能夠降低網(wǎng)絡(luò)模型的復(fù)雜性和權(quán)重?cái)?shù)量[19-20]。CNN的優(yōu)勢(shì)是識(shí)別準(zhǔn)確率高,然而大量的卷積運(yùn)算使其運(yùn)行效率偏低,實(shí)時(shí)性較差。為了克服這一缺陷,區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Regional-CNN, R-CNN)應(yīng)運(yùn)而生[21]。R-CNN算法分為四個(gè)步驟:首先將一張圖像劃分為2000~3000個(gè)候選區(qū)域(Region Proposals),然后利用CNN提取每個(gè)候選區(qū)域的特征,再訓(xùn)練SVM分類器對(duì)這些特征進(jìn)行分類,最后通過邊界框回歸算法重新定位目標(biāo)邊界框。雖然R-CNN克服了傳統(tǒng)方法的缺點(diǎn),但是其運(yùn)算效率依然不高,因?yàn)槠鋵?duì)于每個(gè)候選區(qū)域都要重新計(jì)算整個(gè)網(wǎng)絡(luò)??焖賀-CNN(fast R-CNN)則可以較好地克服以上缺點(diǎn)[22]。相對(duì)于R-CNN, fast R-CNN主要優(yōu)勢(shì)在于提出了ROI(Region Of Interests)策略,將候選區(qū)域映射到CNN模型的特征層上,直接在特征層上提取對(duì)應(yīng)區(qū)域的深層特征,避免了不斷輸入不同區(qū)域圖像的部分,克服了R-CNN提取卷積特征時(shí)冗余操作的缺點(diǎn)[22];但其實(shí)時(shí)性并未得到很大的提升。因此Ren等[23]在fast R-CNN的基礎(chǔ)上提出了Faster R-CNN,其模型框架如圖2所示??紤]到無人機(jī)在飛行過程中需要對(duì)障礙物進(jìn)行實(shí)時(shí)檢測(cè)并作出相應(yīng)的規(guī)避動(dòng)作,本文采用Faster R-CNN作為目標(biāo)檢測(cè)模型。

        作為fast R-CNN的改進(jìn), Faster R-CNN引入了區(qū)域生成網(wǎng)絡(luò)(Region Proposal Network, RPN)的概念,RPN模型如圖3所示。在RPN中,損失函數(shù)為分類損失(Classify Loss)和回歸損失(Regression Loss)的聯(lián)合損失[23]:

        采用隨機(jī)梯度下降的方法進(jìn)行端到端的訓(xùn)練,求解優(yōu)化目標(biāo)函數(shù)式。

        2?四旋翼無人機(jī)避障

        通常的無人機(jī)避障方案是通過距離傳感器測(cè)得障礙物到無人機(jī)之間的距離,比如激光雷達(dá)(Lidar)[24]、超聲波[25-26]等,然后根據(jù)測(cè)得的距離判斷無人機(jī)與障礙物之間的位置關(guān)系,從而實(shí)現(xiàn)避開障礙物。這類主動(dòng)傳感器需要時(shí)刻對(duì)無人機(jī)周圍的環(huán)境進(jìn)行掃描,并且其體積相對(duì)較大,造成了大量的能量損耗,縮短了無人機(jī)的續(xù)航時(shí)間。本文利用單目視覺方案進(jìn)行目標(biāo)與攝像頭之間距離的估計(jì),屬于一種軟測(cè)量方案,體積相對(duì)于傳統(tǒng)傳感器測(cè)量大幅減小,成本也大幅縮減。

        利用上文提到的Faster R-CNN,被測(cè)目標(biāo)能夠有效并完整地被框選出來,并計(jì)算選擇框上下邊距之間的像素尺寸。利用相似三角形的原理,通過計(jì)算得到的目標(biāo)選擇框上下邊距之間的像素尺寸,以此來估計(jì)出障礙物距無人機(jī)當(dāng)前位置的距離,原理如圖4所示。由相似三角性原理,物體到攝像頭之間的距離滿足以下關(guān)系:

        d=(f·h)/l(10)

        其中:d表示物體到攝像頭之間的實(shí)際距離; f表示攝像頭的焦距,本文采用的攝像頭為定焦攝像頭;h代表被檢測(cè)目標(biāo)的實(shí)際尺寸;l表示物體經(jīng)過攝像頭成像后的尺寸。

        3?實(shí)驗(yàn)與結(jié)果分析

        實(shí)驗(yàn)平臺(tái)為一架四旋翼無人機(jī),基于Pixhawk飛控板搭建,并通過Pixhawk的Telem 2接口將Raspberry 3B+與其連接,作為協(xié)同電腦。RaspberryPi 3B+操作系統(tǒng)為Raspbian stretch系統(tǒng),搭載一分辨率為640×480的單目攝像頭,負(fù)責(zé)圖像采集以及目標(biāo)檢測(cè),并通過DroneKit-Python控制無人機(jī)的動(dòng)作(升降、俯仰、橫滾以及偏航)。在對(duì)目標(biāo)檢測(cè)網(wǎng)絡(luò)進(jìn)行訓(xùn)練時(shí),采用的是Windows 10操作系統(tǒng),并使用Nvidia GeForce GTX 1060顯卡對(duì)訓(xùn)練過程進(jìn)行加速。Faster R-CNN模型所依賴的深度學(xué)習(xí)框架為Tensor flow。圖5為本次實(shí)驗(yàn)所采用的飛行實(shí)驗(yàn)平臺(tái)。

        3.1?目標(biāo)檢測(cè)

        因?yàn)闊o人機(jī)避障要優(yōu)先考慮避開人體,因此本文先訓(xùn)練模型識(shí)別人體。將“people”作為標(biāo)簽,訓(xùn)練模型識(shí)別人體的能力。本文從互聯(lián)網(wǎng)上隨機(jī)選取了6張帶有人物的照片,以此來檢驗(yàn)?zāi)P蛯?duì)于人體識(shí)別的準(zhǔn)確率。為了實(shí)現(xiàn)障礙物分類的功能,分別將“screen”“trash can”“l(fā)aptop”“chair”等作為標(biāo)簽,訓(xùn)練模型對(duì)于障礙物分類的能力。經(jīng)實(shí)驗(yàn)驗(yàn)證,本文所訓(xùn)練的模型識(shí)別人體的準(zhǔn)確率均在99%以上,并且無論人體是以何種角度出現(xiàn)在圖片中(正面、側(cè)面或背面),模型均能將其識(shí)別出來,魯棒性較好。對(duì)于其他類型的障礙物,比如椅子、垃圾桶等地面小型目標(biāo),也有一定的識(shí)別能力。目標(biāo)檢測(cè)結(jié)果如圖6所示。

        3.2?距離估計(jì)

        實(shí)驗(yàn)選取人體的參考身高為1.75m,以此為參考,通過計(jì)算圖像中目標(biāo)選擇框上下邊框之間的長(zhǎng)度便可估計(jì)出人體距離無人機(jī)之間的距離??紤]到無人機(jī)的反應(yīng)時(shí)間以及圖像傳輸延遲,本文將安全距離設(shè)置為1.5m。當(dāng)檢測(cè)到無人機(jī)與人體之間的距離小于或等于1.5m時(shí),RaspberryPi 3B+將產(chǎn)生報(bào)警信號(hào),并向Pixhawk發(fā)送避障指令。經(jīng)對(duì)比,估計(jì)出的距離和測(cè)量得到的實(shí)際距離誤差在±0.5m。圖像處理結(jié)果如圖7所示,圖中所示距離信息為攝像頭到人體之間的距離估計(jì)值。

        3.3?四旋翼無人機(jī)避障

        是否執(zhí)行避障動(dòng)作由協(xié)同計(jì)算機(jī)RaspberryPi 3B+作出判斷,再通過DroneKit-Python向Pixhawk發(fā)送Mavlink指令。通過實(shí)際飛行,無人機(jī)確實(shí)可以在距離人1.5m之外避讓行人,該實(shí)驗(yàn)驗(yàn)證了本文方法的有效性。避障實(shí)驗(yàn)結(jié)果如圖8所示,其中,圖8(a)為從機(jī)載協(xié)同計(jì)算機(jī)處理得到的距離估計(jì)結(jié)果,圖8(b)為在兩種不同的距離下進(jìn)行實(shí)驗(yàn)的實(shí)拍圖。

        4?結(jié)語

        本文利用單目攝像頭,基于深度學(xué)習(xí)實(shí)現(xiàn)了對(duì)人體的目標(biāo)檢測(cè),并將人體在圖像中的位置通過框選的方式標(biāo)注出來,再利用相似三角形原理估算出人體到無人機(jī)之間的近似距離。與傳統(tǒng)避障方法相比,此方法具有占用體積小、魯棒性好、成本低等優(yōu)點(diǎn)。通過仿真實(shí)驗(yàn)驗(yàn)證了該方法能對(duì)人體進(jìn)行高準(zhǔn)確率識(shí)別,并且能估算出人體到無人機(jī)之間的距離,誤差為±0.5m。在飛行實(shí)驗(yàn)平臺(tái)上進(jìn)行了實(shí)際飛行避障實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果驗(yàn)證了該方法的有效性。

        由于受到RaspberryPi 3B+機(jī)能的限制,在進(jìn)行飛行實(shí)驗(yàn)時(shí),它對(duì)人體的檢測(cè)和距離估計(jì)往往會(huì)出現(xiàn)延遲現(xiàn)象。為保證實(shí)驗(yàn)人員的安全,目前無人機(jī)只能進(jìn)行低速飛行以抵消延遲帶來的影響;并且本文只訓(xùn)練了模型用于識(shí)別人體,并不能做到行為預(yù)測(cè),并且在實(shí)際應(yīng)用中還有許多種障礙要閃避,這些都是未來需要研究的內(nèi)容。

        參考文獻(xiàn)(References)

        [1] 楊秀霞, 劉小偉, 張毅. 基于時(shí)間約束的無人機(jī)避障研究[J]. 飛行力學(xué), 2015, 33(2): 125-129. (YANG X X, LIU X W, ZHANG Y. Research on obstacle avoidance of UAV based on time constraint[J]. Flight Mechanics, 2015, 33(2): 125-129.)

        [2] 高迪. 無人機(jī)避障雷達(dá)目標(biāo)探測(cè)與跟蹤算法研究[D]. 哈爾濱: 哈爾濱工業(yè)大學(xué), 2017: 10-17. (GAO D. Research on target detection and tracking algorithm for UAV obstacle avoidance radar[D]. Harbin: Harbin Institute of Technology, 2017: 10-17.)

        [3] 朱平, 甄子洋, 覃海群,等. 基于立體視覺和光流的無人機(jī)避障算法研究[J]. 電光與控制, 2017, 24(12): 31-35. (ZHU P, ZHEN Z Y, QIN H Q, el al. Research on UAV obstacle avoidance algorithm based on stereo vision and optical flow[J]. Electronics Optics & Control, 2017, 24(12): 31-35.)

        [4] YANG Y, WANG T T, CEHN L, et al. Stereo vision based obstacle avoidance strategy for quadcopter UAV[C]// Proceedings of the 2018 Chinese Control and Decision Conference. Piscataway, NJ: IEEE, 2018: 490-494.

        [5] HU Y Y, WANG Y X. Stereo vision-based fast obstacles avoidance without obstacles discrimination for indoor UAVs[C]// Proceedings of the 2011 2nd International Conference on Artificial Intelligence, Management Science and Electronic Commerce. Piscataway, NJ: IEEE, 2011: 4332-4337.

        [6] HU J, NIU Y, WANG Z. Obstacle avoidance methods for rotor UAVs using RealSense camera[C]// Proceedings of the 2017 Chinese Automation Congress. Piscataway, NJ: IEEE, 2017: 7151-7155.

        [7] XU Z, WER R, ZHANG Q, et al. Obstacle avoidance algorithm for UAVs in unknown environment based on distributional perception and decision making[C]// Proceedings of the 2016 IEEE Chinese Guidance, Navigation and Control Conference. Piscataway, NJ: IEEE, 2016: 1072-1075.

        [8] GAGEIK N, BENZ P, MONTENEGRO S. Obstacle detection and collision avoidance for a UAV with complementary low-cost sensors[J]. IEEE Access, 2015, 3: 599-609.

        [9] RIISGAARD S, BLAS M R. SLAM for dummies: a tutorial approach to simultaneous localization and mapping[EB/OL]. [2018-05-10]. http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.208.6289&rep=rep1&type= pdf.

        [10] 陳煒楠, 劉冠峰, 李俊良, 等. 室內(nèi)環(huán)境的元胞自動(dòng)機(jī)SLAM算法[J]. 機(jī)器人, 2016, 38(2): 169-177. (CHEN W N, LIU G F, LI J L, et al. Cellular automaton SLAM algorithm for indoor environment[J]. Robot, 2016, 38(2): 169-177.)

        [11] 徐偉杰, 李平, 韓波. 基于2點(diǎn)RANSAC的無人直升機(jī)單目視覺SLAM[J]. 機(jī)器人, 2012, 34(1): 65-71. (XU W J, LI P, HAN B. Unmanned helicopter monocular vision SLAM based on 2 points RANSAC[J]. Robot, 2012, 34(1): 65-71.)

        [12] BAI G, XIANG X, ZHU H, et al. Research on obstacles avoidance technology for UAV based on improved PTAM algorithm[C]// Proceedings of the 2015 IEEE International Conference on Progress in Informatics and Computing. Piscataway, NJ: IEEE, 2015: 543-550.

        [13] CHEN Z, LUO X, DAI B. Design of obstacle avoidance system for micro-UAV based on binocular vision[C]// Proceedings of the 2017 International Conference on Industrial Informatics — Computing Technology, Intelligent Technology, Industrial Information Integration. Piscataway, NJ: IEEE, 2017: 67-70.

        [14] HINTON G E, SALAKHUTDINOV R R. Reducing the dimensionality of data with neural networks[J]. Science, 2006, 313(5786): 504-507.

        [15] ABBAS M A. Improving deep learning performance using random forest HTM cortical learning algorithm[C]// Proceedings of the 2018 First International Workshop on Deep and Representation Learning. Piscataway, NJ: IEEE, 2018: 13-18.

        [16] WANG Y. Cognitive foundations of knowledge science and deep knowledge learning by cognitive robots[C]// Proceedings of the 2017 IEEE 16th International Conference on Cognitive Informatics & Cognitive Computing. Piscataway, NJ: IEEE, 2017: 5.

        [17] GOODFELLOW I, BENGIO Y, COURVILLE A, et al. Deep learning[M]. Cambridge, MA: MIT Press, 2016: 11-12.

        [18] 杜學(xué)丹, 蔡瑩皓, 魯濤, 等. 一種基于深度學(xué)習(xí)的機(jī)械臂抓取方法[J]. 機(jī)器人, 2017, 39(6): 820-828, 837. (DU X D, CAI Y H, LU T, et al. A mechanical arm grabbing method based on deep learning[J]. Robot, 2017, 39(6): 820-828, 837.)

        [19] ZOU J, SONG R. Microarray camera image segmentation with faster-RCNN[C]// Proceedings of the 2018 IEEE International Conference on Applied System Invention. Piscataway, NJ: IEEE, 2018: 86-89.

        [20] LECUN Y, KAVUKCUOGLU K, FARABET C. Convolutional networks and applications in vision[C]// Proceedings of the 2010 IEEE International Symposium on Circuits and Systems. Piscataway, NJ: IEEE, 2010: 253-256.

        [21] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]// Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2014: 580-587.

        [22] GIRSHICK R. Fast R-CNN[C]// Proceedings of the 2015 IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE, 2015: 1440-1448.

        [23] REN S, HE K, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.

        [24] ZHENG W, XIAO J, XIN T. Integrated navigation system with monocular vision and LIDAR for indoor UAVs[C]// Proceedings of the 2017 12th IEEE Conference on Industrial Electronics and Applications. Piscataway, NJ: IEEE, 2017: 924-929.

        [25] GUANGLEI M, HAIBING P. The application of ultrasonic sensor in the obstacle avoidance of quad-rotor UAV[C]// Proceedings of the 2016 IEEE Chinese Guidance, Navigation and Control Conference. Piscataway, NJ: IEEE, 2016: 976-981.

        [26] DIXIT K R, KRISHNA P P, ANTONY R. Design and development of H frame quadcopter for control system with obstacle detection using ultrasound sensors[C]// Proceedings of the 2017 International Conference on Circuits, Controls, and Communications. Piscataway, NJ: IEEE, 2017: 100-104.

        猜你喜歡
        目標(biāo)檢測(cè)深度學(xué)習(xí)
        視頻中目標(biāo)檢測(cè)算法研究
        軟件(2016年4期)2017-01-20 09:38:03
        行為識(shí)別中的人體運(yùn)動(dòng)目標(biāo)檢測(cè)方法
        有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
        電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        移動(dòng)機(jī)器人圖像目標(biāo)識(shí)別
        基于背景建模法的運(yùn)動(dòng)目標(biāo)檢測(cè)
        亚洲综合伦理| 中文字幕无码中文字幕有码 | 国产亚州精品女人久久久久久| 窝窝午夜看片| 亚洲综合色成在线播放| 蜜芽尤物原创AV在线播放| 少妇人妻中文字幕在线| 中文字幕乱码在线人妻| 成人在线免费电影| 中文字幕人妻av一区二区| 亚洲av日韩片在线观看| 国内精品熟女一区二区| 五月激情在线视频观看| 夹得好湿真拔不出来了动态图 | 在线a人片免费观看国产| 视频一区二区免费在线观看| 亚洲一区二区三区中文字幕网| 无码人妻一区二区三区兔费| 中国丰满熟妇xxxx| 四虎影视国产884a精品亚洲| 国产精品亚洲av一区二区三区 | 亚洲熟女精品中文字幕| 一本一道波多野结衣av中文| 国产精品青草视频免费播放 | 亚洲av无码不卡| 国产精品亚洲国产| 看中文字幕一区二区三区| 在线免费观看黄色国产强暴av | a级毛片免费观看在线| 亚洲av美女在线播放啊| 亚洲精品一区二区三区蜜臀| 狠色人妻丝袜中文字幕| 一本一道人人妻人人妻αv| 久久av无码精品人妻出轨| www久久久888| 久久精品亚洲精品国产区| 国产精品久久久久9999| 国产成人综合在线视频| 中国产无码一区二区三区| 国产精品亚洲综合久久| 无码无套少妇毛多18pxxxx|