亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于機(jī)器視覺(jué)的多旋翼無(wú)人機(jī)追蹤方法研究

        2021-03-03 09:54:50徐文堂樊寬剛
        制造業(yè)自動(dòng)化 2021年2期
        關(guān)鍵詞:淺層層級(jí)卷積

        徐文堂,樊寬剛

        (1.江西理工大學(xué) 機(jī)電工程學(xué)院,贛州 341000;2.江西理工大學(xué) 電氣工程和自動(dòng)化學(xué)院,贛州 341000;3.江西理工大學(xué) 永磁磁浮技術(shù)與軌道交通研究院,贛州 341000)

        0 引言

        隨著一些無(wú)人機(jī)關(guān)鍵技術(shù)的突破,無(wú)人機(jī)得到廣泛的應(yīng)用。無(wú)人機(jī)的使用給人們生活帶來(lái)便利的同時(shí),也帶來(lái)新的安全問(wèn)題,如無(wú)人機(jī)窺視隱私、無(wú)人機(jī)運(yùn)送貨物掉落、無(wú)人機(jī)邊境走私毒品等問(wèn)題,因此實(shí)時(shí)、有效地識(shí)別多旋翼無(wú)人機(jī)是非常重要的。

        最近幾年,深度學(xué)習(xí)的發(fā)展,深度卷積神經(jīng)網(wǎng)絡(luò)[1]被廣泛應(yīng)用到圖像識(shí)別和物體檢測(cè)中。在物體檢測(cè)方面許多基于卷積神經(jīng)網(wǎng)絡(luò)的算法被提出,它們都表現(xiàn)出較好的檢測(cè)能力。Faster R-CNN[2]通過(guò)卷積神經(jīng)網(wǎng)絡(luò)提取特征,并使用最后一層卷積特征進(jìn)行物體檢測(cè),它表現(xiàn)出良好檢測(cè)能力和識(shí)別精度。但是在檢測(cè)物體時(shí),僅僅使用深層卷積特征,并沒(méi)有較好利用淺層特征信息。在卷積神經(jīng)網(wǎng)絡(luò)中,淺層特征具有低級(jí)語(yǔ)義信息對(duì)小目標(biāo)檢測(cè)效果好,而深層特征具有高級(jí)語(yǔ)義信息對(duì)大目標(biāo)物體檢測(cè)效果較好。SSD[3]在不同比例的特征圖上進(jìn)行物體檢測(cè),它在卷積神經(jīng)網(wǎng)絡(luò)的頂部添加幾個(gè)額外的新的卷積層,并使用新的卷積層檢測(cè)物體。SSD網(wǎng)絡(luò)較好地利用深層特征,以及重復(fù)使用來(lái)自不同層的多比例特征。FPN[4]和DSSD[5]利用橫向連接的方式有效地結(jié)合深層特征圖和淺層特征圖,雖然提升了物體檢測(cè)的精度,同時(shí)也造成計(jì)算成本的增加。

        針對(duì)視頻中多旋翼無(wú)人機(jī)難以實(shí)時(shí)檢測(cè),以及小目標(biāo)無(wú)人機(jī)檢測(cè)不準(zhǔn)確的問(wèn)題,本文提出一種多層級(jí)特征識(shí)別無(wú)人機(jī)的方法,它能有效的融合深層和淺層的特征信息,提升檢測(cè)精度。該方法主要通過(guò)前向跨階段連接和反向特征構(gòu)建兩部分產(chǎn)生具有豐富語(yǔ)義信息的特征圖。網(wǎng)絡(luò)中具有相同大小的特征圖稱(chēng)為一個(gè)階段。前向跨階段連接將神經(jīng)網(wǎng)絡(luò)每一階段的輸出層輸入到其余階段的輸入層,該連接方式可以有效的保證網(wǎng)絡(luò)中的信息流。反向特征構(gòu)建部分是將上采樣得到特征圖與前向傳播得到的特征圖進(jìn)行相加進(jìn)而得到新的不同比例的特征圖,該融合方法可以產(chǎn)生具有豐富語(yǔ)義的特征圖,如圖1所示。

        本文的創(chuàng)新點(diǎn):

        1)本文針對(duì)小目標(biāo)無(wú)人機(jī)檢測(cè)不準(zhǔn)確的問(wèn)題,提出多層級(jí)特征融合的方法,使包含小目標(biāo)信息的淺層特征圖,能夠有效的傳播到深層特征圖中,同時(shí)采用多層特征檢測(cè)無(wú)人機(jī),進(jìn)而提升無(wú)人機(jī)檢測(cè)精度。

        2)針對(duì)實(shí)時(shí)監(jiān)測(cè)無(wú)人機(jī)的問(wèn)題,本文使用光流法在相鄰幀之間傳播特征圖,以及在網(wǎng)絡(luò)階段連接中,設(shè)計(jì)了窄通道的網(wǎng)絡(luò)特征,既減少網(wǎng)絡(luò)的參數(shù)量,降低網(wǎng)絡(luò)運(yùn)行成本,保證網(wǎng)絡(luò)運(yùn)行速度,也防止信息冗余的出現(xiàn)。

        圖1 多層級(jí)特征識(shí)別無(wú)人機(jī)

        1 相關(guān)工作

        目前,無(wú)人機(jī)檢測(cè)主要采用深度神經(jīng)網(wǎng)絡(luò)的方法提取特征進(jìn)行檢測(cè)。在網(wǎng)絡(luò)中主要有四種方式進(jìn)行物體檢測(cè):方法一是使用神經(jīng)網(wǎng)絡(luò)最后一層的特征圖進(jìn)行檢測(cè)物體,方法二是把多層特征疊加在一起形成新的特征圖,在新的特征圖上進(jìn)行物體檢測(cè),方法三是使用多層特征進(jìn)行檢測(cè),方法四是組合方法二和方法三。

        對(duì)于第一種方法,如RCNN[6]、SPPnet[7]、Faster R-CNN[2]、Fast R-CNN[8]、RFCN[9]和YOLO[10]等僅僅使用卷積神經(jīng)網(wǎng)絡(luò)的最后一層特征檢測(cè)物體。神經(jīng)網(wǎng)絡(luò)中的每一層特征關(guān)注點(diǎn)都是不同的,這類(lèi)方法忽視了淺層特征的信息。

        對(duì)于第二種方法,如ION[11]融合多層特征進(jìn)行物體檢測(cè),HyperNet[12]通過(guò)融合淺層、中層、深層的特征來(lái)獲取包含豐富語(yǔ)義信息的特征圖。這類(lèi)方法通過(guò)組合淺層和深層的特征來(lái)獲取高質(zhì)量的特征圖,增加網(wǎng)絡(luò)計(jì)算成本。

        對(duì)于第三種方法,如MS-CNN[13]和SSD[14]在卷積神經(jīng)網(wǎng)絡(luò)頂部增加幾個(gè)額外卷積層,并在新的卷積層上進(jìn)行物體檢測(cè)。這類(lèi)方法沒(méi)有較好的使用淺層的信息,導(dǎo)致不能較好的檢測(cè)小目標(biāo)物體。

        對(duì)于第四種方法,使用多層特征來(lái)預(yù)測(cè)物體,并且每一層特征包含不同深度的信息。如FPN[15]使用橫向鏈接的方式來(lái)產(chǎn)生具有豐富語(yǔ)義的特征圖,DSSD[5]通過(guò)反卷積的方法產(chǎn)生新的特征圖,然后將新的特征圖與淺層特征融合產(chǎn)生最終的特征圖,最后在產(chǎn)生的特征圖上檢測(cè)物體。這類(lèi)方法提升了特征圖語(yǔ)義信息的同時(shí),也帶來(lái)計(jì)算成本的增加。

        本文提出的方法提高了檢測(cè)精度和網(wǎng)絡(luò)運(yùn)行的速度,該方法主要包含兩個(gè)部分:前向跨階段連接和反向特征構(gòu)建。前向跨階段連接將神經(jīng)網(wǎng)絡(luò)每一階段的輸出層輸入到其余階段的輸入層,反向特征構(gòu)建部分是把上采樣得到特征圖與前向傳播得到的特征圖進(jìn)行相加進(jìn)而得到新的不同比例的特征圖。在前向跨階段連接和反向特征構(gòu)建兩部分,本文進(jìn)行了權(quán)衡特征通道數(shù)量的實(shí)驗(yàn),選取最優(yōu)通道數(shù)量,保證網(wǎng)絡(luò)檢測(cè)精度和運(yùn)行速度。

        2 多層級(jí)特征網(wǎng)絡(luò)構(gòu)建及網(wǎng)絡(luò)結(jié)構(gòu)

        2.1 多層級(jí)特征網(wǎng)絡(luò)構(gòu)建

        本文定義G(.)和Z(.)是在神經(jīng)網(wǎng)絡(luò)中的非線(xiàn)性變換操作。它包含激活、卷積和上采樣等操作。

        1)卷積網(wǎng)絡(luò)

        本文在ResNets[16]網(wǎng)絡(luò)上構(gòu)建多層級(jí)特征,同時(shí)認(rèn)為網(wǎng)絡(luò)中具有相同大小的特征圖為一個(gè)階段。在網(wǎng)絡(luò)每個(gè)階段中,采用跳躍式連接的方法,使梯度流可以直接從輸入層到輸出層,同時(shí)使信息流也被限制在每個(gè)階段中;反向構(gòu)建多層級(jí)特征時(shí),將深層特征與淺層特征融合,產(chǎn)生具有豐富語(yǔ)義信息的特征圖。

        2)跨階段連接

        為了使網(wǎng)絡(luò)中的信息流跨階段傳輸,本文提出一種新的特征連接方式:前向跨階段連接。它可以把某個(gè)階段的輸出層直接輸入到后續(xù)階段的輸入層。如圖1所示,l階段的第一層接受以前所有階段輸出層。

        l代表卷積神經(jīng)網(wǎng)絡(luò)中第l個(gè)階段,xl代表第l階段的輸出特征,xl0代表第l階段的輸入特征,H(x)是代表進(jìn)行卷積(如式(2)所示),H(H(xl0)+F(x))代表網(wǎng)絡(luò)中某一階段的卷積操作,F(xiàn)(x)表示對(duì)l階段之前所有階段輸出先進(jìn)行相加操作進(jìn)而做卷積操作。前向跨階段連接使網(wǎng)絡(luò)中淺層的信息直接傳遞到網(wǎng)絡(luò)深層,使本文提出的網(wǎng)絡(luò)更容易聚合以及防止網(wǎng)絡(luò)過(guò)擬合,如圖1上半部分所示。

        w是權(quán)重矩陣,x為特征參數(shù),b是偏置參數(shù)。

        3)反向特征構(gòu)建

        為了使網(wǎng)絡(luò)更好地檢測(cè)小目標(biāo)物體,本文提出反向特征構(gòu)建的方法,它能更好地從淺層特征中獲取信息。一個(gè)反向特征構(gòu)建塊如圖2所示,首先對(duì)反向融合圖(n+1層)做反卷積操作,得到一個(gè)與前一層(n層)相同大小的特征圖,然后把新的特征圖與第n層特征圖相加得到反向融合圖。其中每個(gè)反向特征構(gòu)建塊以相同方式產(chǎn)生,如圖1所示。

        F(n+1)代表第n+1層的反向融合圖,fn代表前向傳播中第n層的特征圖,Z(.)代表反卷積[24]操作。

        圖2 反向特征構(gòu)建塊

        4)組合函數(shù)

        神經(jīng)網(wǎng)絡(luò)中每個(gè)階段的特征圖大小是不同的,為保證不同階段的特征圖有效連接,在跨階段連接中本文定義了復(fù)合函數(shù)G(.),如圖3所示,它包含1×1卷積層、激活層(ReLU)(式(4))和2×2pooling層(Avg)。在反向特征構(gòu)建中,為有效結(jié)合淺層特征和深層特征的信息,本文定義的反卷積操作Z(.),它包含3×3卷積層和激活層(ReLU)。

        圖3 不同階段特征圖相加示意圖

        wTx+b是神經(jīng)元的線(xiàn)性變換。

        2.2 網(wǎng)絡(luò)結(jié)構(gòu)

        本文提出的方法有效的提升了在視頻中無(wú)人機(jī)檢測(cè)的精度,網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示,主要包含基礎(chǔ)網(wǎng)絡(luò)、光流網(wǎng)絡(luò)和檢測(cè)網(wǎng)絡(luò)三部分。

        圖4 網(wǎng)絡(luò)結(jié)構(gòu)

        1)基礎(chǔ)網(wǎng)絡(luò)

        文章采用多層級(jí)特征網(wǎng)絡(luò)提取無(wú)人機(jī)特征。這個(gè)網(wǎng)絡(luò)預(yù)訓(xùn)練在ImageNet數(shù)據(jù)集上,在收集的無(wú)人機(jī)數(shù)據(jù)集上進(jìn)行微調(diào)。

        2)光流網(wǎng)絡(luò)

        在視頻中相鄰幀的圖像內(nèi)容是非常相似的,這導(dǎo)致相鄰幀的特征也很相似,因此文章中使用光流的方法在相鄰幀之間傳播特征,圖5展示了其傳播過(guò)程。本文的網(wǎng)絡(luò)采用FlowNet[17]結(jié)構(gòu)進(jìn)行多層級(jí)特征傳遞,它預(yù)訓(xùn)練在Flying chairs[17]數(shù)據(jù)集上。本文給定卷積輸出結(jié)果為y=C(I),所有的視頻幀Ii,i=0,…,∞。

        本文的光流網(wǎng)絡(luò)分解成兩個(gè)連續(xù)的子網(wǎng)絡(luò)。第一個(gè)子網(wǎng)絡(luò)Cfeat,被稱(chēng)為特征網(wǎng)絡(luò),是完全卷積神經(jīng)網(wǎng)絡(luò),并輸出多個(gè)特征圖,f=Cfeat(I)。第二個(gè)子網(wǎng)絡(luò)Cfeat,被稱(chēng)為任務(wù)網(wǎng)絡(luò),是在特征圖上執(zhí)行檢測(cè)任務(wù),y=Ctask(f)。具體來(lái)說(shuō),特征網(wǎng)絡(luò)Cfeat只在關(guān)鍵幀運(yùn)行,非關(guān)鍵貞Ii的特征圖則由上一個(gè)關(guān)鍵貞Ik的特征圖傳播得到。

        令Hi→k,為二維流場(chǎng),由流估計(jì)算法F獲得,則Hi→k=F(Ik,Ii),特征圖被雙線(xiàn)性插值算法調(diào)整到相同空間分辨率上進(jìn)行傳播。它將當(dāng)前幀i中的位置p投影到關(guān)鍵幀k中的位置p+δp,δp=Hi→k(p)。

        則通過(guò)雙線(xiàn)性插值來(lái)實(shí)現(xiàn)特征形變:

        其中c為特征圖f中的通道,q是枚舉了特征圖中所有的空間位置,G(.)表示雙線(xiàn)性插值的內(nèi)核。

        由于流估計(jì)錯(cuò)誤等造成空間形變計(jì)算不準(zhǔn)確,為更好的近似特征,我們添加一個(gè)比例函數(shù)Z,Zi→k=Z(Ik,Ii)。

        最后,特征傳播函數(shù)定義為:

        其中W是對(duì)每層特征圖所有通道使用式(5)。

        圖5 光流網(wǎng)絡(luò)示意圖

        3)檢測(cè)網(wǎng)絡(luò)

        本文使用R-FCN[18]網(wǎng)絡(luò)檢測(cè)無(wú)人機(jī),同時(shí)把基礎(chǔ)網(wǎng)絡(luò)提取的特征劃分為兩部分,一部分用來(lái)做區(qū)域提取,另一部分做物體檢測(cè)。

        本文使用PRN[9]網(wǎng)絡(luò)做區(qū)域提議,它包含了n=9種不同比例不同大小的錨。在基礎(chǔ)網(wǎng)絡(luò)提取的特征圖上,通過(guò)滑動(dòng)1×1卷積來(lái)獲取無(wú)人機(jī)識(shí)別得分和邊界回歸值,它們的維度分別是2n和4n。每張圖片的閾值為0.7,使用非極大值抑制的方法產(chǎn)生300個(gè)區(qū)域提議的框。

        在檢測(cè)過(guò)程中,本文在特征圖上執(zhí)行1×1卷積獲得位置敏感得分圖和邊界回歸圖,它們的維度分別是2k2和4k2。由Fast R-CNN[19]可知,使用ROI Pooling層產(chǎn)生類(lèi)別得分和回歸結(jié)果。檢測(cè)過(guò)程中的閾值設(shè)置為0.3,使用非極大值抑制的方法獲得最終結(jié)果。

        4)損失函數(shù)

        論文采用聯(lián)合損失函數(shù),它包含兩個(gè)子網(wǎng)絡(luò),第一個(gè)是離散概率分布值p=(p0,p1),p0是無(wú)人機(jī)背景的概率,p1是無(wú)人機(jī)前景的概率,如式(7)所示。

        第二部分邊界框回歸補(bǔ)償t=(tx,ty,tw,th),t是相對(duì)于物體區(qū)域提議的空間變化的值。同時(shí)本論文對(duì)每一個(gè)感興趣區(qū)域(ROI)的分類(lèi)和邊界回歸進(jìn)行聯(lián)合訓(xùn)練:

        u是每個(gè)ROI真實(shí)標(biāo)簽,v是邊界回歸的目標(biāo),Lcls(p,u)=-log pu是對(duì)真實(shí)標(biāo)簽u的log損失。對(duì)于損失函數(shù)的第二部分Lloc中,v=(vx,vy,vw,vh)是真實(shí)的邊界框回歸值,是對(duì)無(wú)人機(jī)坐標(biāo)的預(yù)測(cè)值。對(duì)于邊界回歸使用的損失函數(shù):

        其中函數(shù)smooth L1為:

        對(duì)于邊界框回歸,將坐標(biāo)參數(shù)化為4個(gè)值:

        其中x,y,w,h分別是物體的中心坐標(biāo)以及它的寬和高,x,x_a,x^*分別是預(yù)測(cè)值,錨值和真實(shí)值(y,w,h類(lèi)似)。

        在公式8中的超參數(shù)?控制兩個(gè)損失函數(shù)的平衡,論文中將目標(biāo)回歸值v_i進(jìn)行歸一化處理,使其均值和單位方差為零,論文中所有實(shí)驗(yàn)?=0.9。

        3 實(shí)驗(yàn)結(jié)果和分析

        論文所有實(shí)驗(yàn)在 NVIDIA TITAN V GPU上測(cè)試。

        3.1 實(shí)驗(yàn)數(shù)據(jù)和預(yù)訓(xùn)練

        論文使用python爬蟲(chóng)在互聯(lián)網(wǎng)上爬取多旋翼無(wú)人機(jī)照片,然后進(jìn)行數(shù)據(jù)清洗、標(biāo)注等工作。訓(xùn)練集有6272張圖片,測(cè)試集有5060張圖片。

        本文網(wǎng)絡(luò)使用SGD的方法在ImageNet數(shù)據(jù)集上首先進(jìn)行預(yù)訓(xùn)練,預(yù)訓(xùn)練時(shí)在8個(gè)GPU上總共迭代60K次,學(xué)習(xí)率設(shè)置為10-3。預(yù)訓(xùn)練完成后,在搜集的無(wú)人機(jī)數(shù)據(jù)集上訓(xùn)練15次進(jìn)行網(wǎng)絡(luò)微調(diào)。實(shí)驗(yàn)中使用平均精度作為實(shí)驗(yàn)的檢測(cè)結(jié)果。

        3.2 實(shí)驗(yàn)結(jié)果

        3.2.1 消融實(shí)驗(yàn)

        在消融實(shí)驗(yàn)中,論文采用沒(méi)有前向特征鏈接和反向特征構(gòu)建的Resnet網(wǎng)絡(luò)作為原始網(wǎng)絡(luò)(表1(a)、(e)、(i))分別為Resnet-50、Resnet-101、Resnet-152,并對(duì)多旋翼無(wú)人機(jī)進(jìn)行檢測(cè)。表1(b)是移除多層級(jí)特征前向特征鏈接部分,它使用網(wǎng)絡(luò)多層特征進(jìn)行無(wú)人機(jī)識(shí)別。根據(jù)表1和圖6可知,對(duì)多旋翼無(wú)人機(jī)檢的檢測(cè)精度表1(b)是低于多層級(jí)網(wǎng)絡(luò)檢測(cè)(表1(d)),造成這個(gè)原因可能是淺層特征的信息沒(méi)有較好的傳播到深層特征中。表1(c)展示了網(wǎng)絡(luò)沒(méi)有進(jìn)行反向特征構(gòu)建的實(shí)驗(yàn)結(jié)果,該網(wǎng)絡(luò)僅僅使用最后一層特征進(jìn)行無(wú)人機(jī)檢測(cè),它對(duì)多旋翼無(wú)人機(jī)檢測(cè)的精度也低于多層級(jí)特征檢測(cè)(表1(b)),造成這種現(xiàn)象的原因可能是在檢測(cè)時(shí)沒(méi)有使用淺層特征。同樣道理,基于Resnet-101網(wǎng)絡(luò)和Resnet-152網(wǎng)絡(luò)的多層級(jí)特征識(shí)別網(wǎng)絡(luò),在消融實(shí)驗(yàn)中也展現(xiàn)出較好的識(shí)別準(zhǔn)確率。

        表1 消融實(shí)驗(yàn)

        圖6 不同網(wǎng)絡(luò)中無(wú)人機(jī)識(shí)別精度及速度比較

        3.2.2 實(shí)驗(yàn)比較

        論文對(duì)多層級(jí)特征網(wǎng)絡(luò)與原始網(wǎng)絡(luò)進(jìn)行了對(duì)比,表1總結(jié)了它們的檢測(cè)精度和運(yùn)行速度。在實(shí)驗(yàn)中,本文使用R-FCN網(wǎng)絡(luò)對(duì)多旋翼無(wú)人機(jī)進(jìn)行檢測(cè)。根據(jù)表1,可知多層級(jí)特征網(wǎng)絡(luò)

        檢測(cè)的精度高于其原始網(wǎng)絡(luò)。當(dāng)使用Resnet-50作為原始網(wǎng)絡(luò)時(shí),多層級(jí)特征網(wǎng)絡(luò)的識(shí)別精度和速度分別為85.3%和21.21fps,同樣條件下,原始網(wǎng)路的識(shí)別精度和速度分別為76.1%和22.35fps。當(dāng)使用Resnet-101網(wǎng)絡(luò)時(shí),多層級(jí)檢測(cè)網(wǎng)絡(luò)的精度為93.2%,遠(yuǎn)遠(yuǎn)高于原始網(wǎng)絡(luò),速度卻只慢一點(diǎn)點(diǎn)。同樣條件下,使用Resnet-152網(wǎng)絡(luò)時(shí),多層級(jí)特征網(wǎng)絡(luò)識(shí)別的精度達(dá)到了97.1%,遠(yuǎn)遠(yuǎn)高于原始網(wǎng)絡(luò)識(shí)別精度。實(shí)驗(yàn)結(jié)果表明,本文提出的多層級(jí)特征識(shí)別無(wú)人機(jī)的方法,具有較好的識(shí)別準(zhǔn)確率與運(yùn)行速度。

        本文將多層級(jí)特征識(shí)別方法與現(xiàn)有的物體檢測(cè)方法做了比較(如表2所示),根據(jù)表2可知,在相同條件下,本文提出的方法在識(shí)別無(wú)人機(jī)時(shí),不論是精度或是速度都遠(yuǎn)遠(yuǎn)超過(guò)各類(lèi)物體檢測(cè)的方法,具有明顯優(yōu)勢(shì)。

        表2 多旋翼無(wú)人機(jī)運(yùn)行結(jié)果

        3.2.3 通道數(shù)量的權(quán)衡實(shí)驗(yàn)

        本論文對(duì)多層級(jí)特征識(shí)別網(wǎng)絡(luò)的前向特征連接階段進(jìn)行了通道數(shù)量的權(quán)衡實(shí)驗(yàn),結(jié)果總結(jié)在表3中。根據(jù)表3和圖7可知,論文中采取不同數(shù)量的通道數(shù)其結(jié)果是不同的,當(dāng)把特征壓縮為一個(gè)通道數(shù)、兩個(gè)通道數(shù)、四個(gè)通道數(shù)時(shí),它們的識(shí)別精度是非常相似的,但是隨著通道數(shù)量的增加,其精度和速度逐漸降低,造成這種現(xiàn)象的原因可能是隨著通道數(shù)的增加,導(dǎo)致了網(wǎng)絡(luò)產(chǎn)生信息冗余和參數(shù)的增長(zhǎng),從而導(dǎo)致其精度降低和速度變慢。

        通過(guò)權(quán)衡實(shí)驗(yàn),在保證精度的前提下不犧牲速度,本論文將特征壓縮為一個(gè)特征通道。

        表3 在不同通道數(shù)上精度和速度的比較

        圖7 通道數(shù)量實(shí)驗(yàn)比較

        3.2.4 結(jié)果分析

        本論文提出的多層級(jí)特征識(shí)別無(wú)人機(jī)的方法,可以對(duì)文件中無(wú)人機(jī)視頻和攝像頭拍攝的無(wú)人機(jī)視頻流進(jìn)行實(shí)時(shí)監(jiān)測(cè)。根據(jù)圖8展示的無(wú)人機(jī)識(shí)別效果圖,我們可知該方法能夠準(zhǔn)確、有效地的識(shí)別多旋翼無(wú)人機(jī)。

        在實(shí)驗(yàn)中,我們通過(guò)前向跨階段連接、反向特征構(gòu)建、相鄰幀之間光流傳播以及壓縮特征通道的方式,使特征圖包含了豐富的語(yǔ)義信息,提升無(wú)人機(jī)檢測(cè)精度和速度。根據(jù)實(shí)驗(yàn)比較結(jié)果可知,該方法對(duì)無(wú)人機(jī)檢測(cè)獲得了一個(gè)較好的精度,對(duì)多旋翼無(wú)人機(jī)的識(shí)別準(zhǔn)確率達(dá)到了97.1%。本論文在設(shè)計(jì)網(wǎng)絡(luò)結(jié)構(gòu)時(shí),壓縮了網(wǎng)絡(luò)的特征通道的數(shù)量,減少了網(wǎng)絡(luò)參數(shù)量,避免了以犧牲速度來(lái)?yè)Q取檢測(cè)精度的代價(jià),因此多層級(jí)特征識(shí)別無(wú)人機(jī)的方法在所有網(wǎng)絡(luò)中識(shí)別多旋翼無(wú)人機(jī)的精度遠(yuǎn)遠(yuǎn)高于其原始網(wǎng)絡(luò),而檢測(cè)的速度卻相差不多。

        實(shí)驗(yàn)證明,本文提出的基于神經(jīng)網(wǎng)絡(luò)多層級(jí)識(shí)別無(wú)人機(jī)的方法具有較好的性能。它是一個(gè)靈活的、端到端的框架,能夠在網(wǎng)絡(luò)的不同階段傳播信息流,產(chǎn)生具有豐富語(yǔ)義的特征圖,相比較于其他方法,該方法具有較好的檢測(cè)性能。

        圖8 無(wú)人機(jī)識(shí)別效果

        4 結(jié)語(yǔ)

        針對(duì)視頻中目標(biāo)較小的無(wú)人機(jī)識(shí)別能力差、檢測(cè)不準(zhǔn)確、無(wú)法實(shí)時(shí)檢測(cè)等問(wèn)題,本文提出一種基于神經(jīng)網(wǎng)絡(luò)多層級(jí)特征識(shí)別無(wú)人機(jī)的方法。該方法有效利用淺層特征信息和深層特征信息,以及在不同比例的特征圖上檢測(cè)無(wú)人機(jī),提升了無(wú)人機(jī)的檢測(cè)精度,同時(shí)在相鄰幀特征之間使用光流法,有效的降低計(jì)算成本,提升網(wǎng)絡(luò)運(yùn)行速度。并且在多旋翼無(wú)人機(jī)數(shù)據(jù)集上識(shí)別準(zhǔn)確率達(dá)到了97.1%。

        猜你喜歡
        淺層層級(jí)卷積
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        淺層換填技術(shù)在深厚軟土路基中的應(yīng)用
        軍工企業(yè)不同層級(jí)知識(shí)管理研究實(shí)踐
        基于淺層曝氣原理的好氧顆粒污泥的快速培養(yǎng)
        基于軍事力量層級(jí)劃分的軍力對(duì)比評(píng)估
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        淺層地下水超采區(qū)劃分探究
        任務(wù)期內(nèi)多層級(jí)不完全修復(fù)件的可用度評(píng)估
        包氣帶淺層地?zé)崛萘坑?jì)算方法商榷
        av天堂手机在线免费| 毛片毛片免费看| 五月天久久国产你懂的| 亚洲国产美女在线观看| www.日本一区| 亚洲av天堂久久精品| 91桃色在线播放国产| 极品粉嫩嫩模大尺度视频在线播放| 高潮喷水无遮挡毛片视频| 久久精品国产亚洲av热九九热 | 亚洲中文字幕高清在线视频一区| 日本少妇熟女一区二区| 日本国产亚洲一区二区| 性做久久久久久免费观看| 日本肥老妇色xxxxx日本老妇| 精品淑女少妇av久久免费| 国产福利姬喷水福利在线观看| 成年女人免费v片| 国产亚洲精品hd网站| 国产中文字幕亚洲国产| 老熟女老女人国产老太| 亚洲av成人无码久久精品老人| 一本久道综合在线无码人妻| 免费a级毛片无码a∨免费软件| 欧美人与动人物牲交免费观看| 久久久久久久一线毛片| 中文字幕一区二区三区.| 两人前一后地插着她丰满| 国产av一区二区三区无码野战| 香蕉人人超人人超碰超国产| 国产剧情av麻豆香蕉精品| 亚洲国产成人手机在线观看| 青青手机在线视频观看| 国产精品毛片一区二区三区| 91中文人妻熟女乱又乱| 亚洲一区自拍高清亚洲精品| 亚洲精品中文字幕无码蜜桃| 国产在线精品一区二区在线看| 午夜一区二区三区在线观看| 人妻少妇被粗大爽.9797pw| 精品国产18久久久久久|