亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于TBGC的航拍視頻車輛檢測算法

        2019-09-10 07:22:44郭迎春鄭婧然于洋
        關(guān)鍵詞:鄰域航拍像素點

        郭迎春 鄭婧然 于洋

        摘要 針對移動航拍視頻中車輛檢測準(zhǔn)確度低的問題,提出一種基于三鄰域點二值梯度輪廓(Three-neighbor-point Binary Gradient Contour,TBGC)特征的航拍車輛檢測算法。對相鄰幀圖像進行SURF(speeded-up robust features)特征點提取匹配,利用角度判別剔除錯誤匹配點完成圖像配準(zhǔn),采用幀間差分獲得運動目標(biāo)的候選區(qū)域。由于傳統(tǒng)二值梯度輪廓(Binary Gradient Contours,BGC)特征忽略中心像素特性,提出基于3×3鄰域相鄰像素點量化操作的TBGC特征。提取候選區(qū)域的TBGC特征,并利用支持向量機(Support Vector Machine, SVM)完成最終的航拍視頻車輛檢測。實驗中利用提出的TBGC特征在8個數(shù)據(jù)集上分別與BGC1、LBP、HOG特征進行對比實驗,實驗結(jié)果表明TBGC算法的檢測率明顯優(yōu)于傳統(tǒng)經(jīng)典算法,平均檢測率為93.09%,并且具有較好的魯棒性。

        關(guān) 鍵 詞 航拍視頻;車輛檢測;支持向量機;TBGC特征

        中圖分類號 TP391.41? ? ?文獻標(biāo)志碼 A

        Abstract To improve the vehicle detection precision in aerial video, a vehicle detection method for aerial video is proposed based on three-neighbor-point binary gradient contour (TBGC) features. First, the extraction of speed-up robust features (SURF) was extracted and matched for adjacent frame images, and error-matching points were eliminated by angle discrimination to realize image registration. Then, the candidate regions of the moving target were obtained according to the frame difference. Since the traditional binary gradient contour (BGC) features ignore the pixel characteristics at the center, the TBGC features based on the comparison of adjacent pixel points in a 3 × 3 neighborhood were proposed. In this way, the TBGC features in candidate regions were extracted, and support vector machine (SVM) was used to complete the vehicle detection in aerial video at last. In the experiment, the proposed TBGC features were compared with features of BGC1, LBP, and HOG on eight datasets respectively. Experimental results show that the detection rate of TBGC algorithm is obviously better than the traditional classical algorithms, with an average detection rate of 93.09% and stronger robustness.

        Key words aerial video; vehicle detection; support vector machine; TBGC features

        0 引言

        現(xiàn)今無人機航拍技術(shù)已經(jīng)應(yīng)用到交通運輸、工業(yè)、農(nóng)業(yè)、軍事等各個領(lǐng)域中,進行交通管控、環(huán)境保護、災(zāi)后救援、軍事偵查等,并在相關(guān)領(lǐng)域中發(fā)揮著重要的作用。與傳統(tǒng)的地面監(jiān)控視頻相比,無人機航拍視頻具有監(jiān)控范圍大、使用方便靈活,能夠更好地檢測快速移動目標(biāo)等優(yōu)勢,因此,針對航拍視頻的目標(biāo)檢測研究已經(jīng)逐漸成為計算機視覺領(lǐng)域的一個研究熱點[1]。 然而對于車輛檢測問題,由于航拍視頻覆蓋場景面積較大、關(guān)鍵目標(biāo)較小、背景復(fù)雜,且目標(biāo)車輛易受光照變化、遮擋、相機抖動以及姿態(tài)變化等因素影響[2],因此航拍視頻中的車輛檢測仍然是一個具有挑戰(zhàn)性的課題。

        近年來國內(nèi)外的相關(guān)研究已經(jīng)取得了一定的成果,大體上可以分為基于特征的方法和基于深度學(xué)習(xí)的方法。在基于特征的方法中,方向梯度直方圖(Histogram of Oriented Gradient,HOG)是最為有效的特征之一。Xu等[3]通過道路方向旋轉(zhuǎn)圖像,將HOG與支持向量機(Support Vector Machine,SVM)結(jié)合可以實現(xiàn)快速且高精度的目標(biāo)檢測,并采用自適應(yīng)交換策略提高檢測效率,但是無法檢測到轉(zhuǎn)彎處的車輛。Madhogaria等 [4]利用HOG+SVM檢測目標(biāo),并結(jié)合馬爾科夫隨機場刪除虛假目標(biāo),與其他方法相比,顯著降低了誤報率,但是因訓(xùn)練圖像的尺寸固定,需要手動設(shè)置參數(shù),靈活性較差。文獻[5]增加了紋理和顏色信息,并結(jié)合改進HOG特征作為特征描述符,檢測的準(zhǔn)確率進一步提高,但是用時長,計算量大。由于HOG特征不具有旋轉(zhuǎn)不變性,Liu等[6]在原有經(jīng)典HOG特征的基礎(chǔ)上,提出具有旋轉(zhuǎn)不變性的Fourier-HOG特征。Kamenetsky等[7]將該特征用于航拍圖像,取得顯著的效果。但是Fourier-HOG胞元只能描述局部區(qū)域信息,當(dāng)對一個較大區(qū)域進行描述時,需要計算該區(qū)域的區(qū)域描述符,特征維數(shù)較大,算法效率較差。文獻[8]采用光照不變特征減少Fourier-HOG特征的提取區(qū)域,從而減少運行時間,但是算法的時間復(fù)雜度依然很高。與HOG特征相比,由于尺度不變特征變換(Scale-Invariant Feature Transform, SIFT)特征能夠檢測到部分被陰影或樹木遮擋的車輛,因此該特征也是航拍車輛檢測常用的特征之一。Moranduzzo等[9]考慮到特征的尺度不變性和旋轉(zhuǎn)不變性,利用SIFT關(guān)鍵點進行像素點檢測,通過SVM對SIFT關(guān)鍵點分類得到車輛的關(guān)鍵點集,該方法主要降低了虛警率,但是關(guān)鍵點的分類精度不夠。同時,文獻[10]通過基于地理信息系統(tǒng)的篩選評估方法,進一步降低了虛警率,但是仍有部分車輛的漏檢。此外,HOG空間金字塔(Spatial Pyramid of HoG,PHOG )特征[11]、Haar-like特征[12]、快速旋轉(zhuǎn)不變特征[13]、旋轉(zhuǎn)不變矩陣(Rotation-Invariant Matrix,RIM)[14]以及結(jié)合方向梯度角[15]和徑向梯度方向特征的序數(shù)金字塔編碼方法[16]也被應(yīng)用到航拍車輛檢測中。

        深度學(xué)習(xí)目前也廣泛用于航拍車輛檢測領(lǐng)域,但是檢測效果無法達到基于特征的方法[17]。Chen等[18]針對深層卷積神經(jīng)網(wǎng)絡(luò)(DNN)只能提取同一尺寸特征的缺陷,提出混合的深層卷積神經(jīng)網(wǎng)絡(luò),通過將最后一個卷積層和DNN的最大池化層的映射劃分為多個可變接收域來提取可變尺寸特征。該方法在衛(wèi)星圖像上獲得了顯著的效果。文獻[17]利用卷積神經(jīng)網(wǎng)絡(luò)提取特征并結(jié)合SVM分類進行目標(biāo)檢測。該方法在準(zhǔn)確性和計算時間上都優(yōu)于現(xiàn)有的方法。但只是找到了車輛的位置區(qū)域,并沒有精確地檢測到每輛車,并且誤檢率較高。Deng等[19]提出了一個精確車輛推薦網(wǎng)絡(luò),可以檢測出航拍圖像中的車輛,并利用車輛屬性學(xué)習(xí)網(wǎng)絡(luò)獲得車輛的位置信息。該方法相比于其他的方法魯棒性更好,準(zhǔn)確性更高,但是不適用于車輛高度集中的區(qū)域,具有局限性。

        無論是基于特征的方法還是基于深度學(xué)習(xí)的方法,算法本質(zhì)都是用特征來表征目標(biāo)。文獻[20]對局部二值模式(Local Binary Patterns,LBP)和二值梯度輪廓(Binary Gradient Contours,BGC)特征做了3組對比實驗,實驗表明BGC特征具有更好的目標(biāo)表述能力以及旋轉(zhuǎn)平移不變性??紤]到航拍視頻中目標(biāo)車輛由于攝像機的拍攝角度以及姿態(tài)變化,具有比較復(fù)雜的形態(tài),本文以BGC特征為基礎(chǔ),對BGC的第1種模式BGC1進行改進,提出基于三鄰域點二值梯度輪廓(Three-neighbor-point Binary Gradient Contour,TBGC)特征的航拍車輛檢測算法,首先針對航拍視頻序列進行圖像配準(zhǔn),利用幀間差分得到車輛候選區(qū)域,最終使用TBGC特征結(jié)合SVM完成精確的車輛檢測。

        1 總體架構(gòu)

        本文采用的無人機采集的航拍視頻序列,由于視頻中存在相對運動,所以首先進行基于SURF(Speeded- Up Robust Features)特征點[21]的圖像配準(zhǔn),使得相鄰幀在同一圖像坐標(biāo)系下;然后利用幀間差分法獲得運動目標(biāo)候選區(qū)域;最后對運動目標(biāo)候選區(qū)域進行TBGC特征提取,利用SVM對特征分類提取的先驗?zāi)P瓦M行目標(biāo)分類,進而得到精確的檢測結(jié)果。圖1是整體車輛檢測的流程圖。

        2 航拍目標(biāo)車輛檢測

        2.1 圖像配準(zhǔn)

        對于視頻序列[Ijj=1,...,n]的相鄰兩幀圖像[Ij]和[Ij+1],分別提取SURF特征點,得到兩幀圖像的特征點集A和B,對特征點集A和B進行匹配,最后再利用隨機采樣一致算法(Random Sample Consensus, RANSAC)[22]剔除錯誤的匹配點對。匹配結(jié)果如圖2所示。

        圖2是經(jīng)過RANSAC算法之后的匹配效果圖,仍然存在錯誤的匹配點對。考慮到航拍序列的特點,相鄰幀圖像之間存在的是平移和旋轉(zhuǎn)的微小運動,所以一對匹配點可以計算出一個角度,所有特征點對之間的角度差異會很小,因此本文采用基于角度判定的策略剔除錯誤匹配點。匹配點間的角度計算公式為

        計算所有匹配點對間的角度集合[C=θ1,θ2,...,θm],升序排序得到集合[D=θ′1,θ′2,...,θ′m],取集合D的前1/4角度值計算平均角度值[θ],其中,前1/4角度值是經(jīng)過實驗具有最好處理效果的取值,最后根據(jù)式(2)計算[Ti]。

        [Ti]為每個角度對應(yīng)的特征點對正確與否的判斷函數(shù),其中[i]表示每一對特征點。如果[Ti]為1,說明是匹配正確的特征點對,反之,則為匹配錯誤的特征點對,并剔除。圖3為特征點剔除后匹配結(jié)果。

        剔除錯誤的匹配點對后,采用雙三次插值進行仿射變換,得到配準(zhǔn)圖。在圖像配準(zhǔn)之后,本文采用幀間差分的方法獲得候選目標(biāo)運動區(qū)域,圖4為幀間差分檢測結(jié)果,從中可以看出仍存在很多非車輛區(qū)域,即誤檢區(qū)域。為了進一步完成目標(biāo)車輛區(qū)域精確檢測,采用基于特征訓(xùn)練的分類方法。第一步首先對訓(xùn)練集的正負樣本提取TBGC特征,然后通過SVM對樣本進行訓(xùn)練獲得TBGC特征的分類模型。第二步是對幀差后獲得的目標(biāo)候選區(qū)域進行識別,對目標(biāo)候選區(qū)域提取TBGC特征,依據(jù)第一步得到的分類模型得到精確的檢測結(jié)果。

        2.2 BGC特征

        二值梯度輪廓(Binary Gradient Contours,BGC)由Fernández等提出?;陬A(yù)先定義的路徑,使用來自3×3鄰域的順時針方向選擇的成對像素值比較,得到3×3鄰域中心像素點的二進制描述符,表示該像素點的BGC值。BGC的編碼路徑不同,則其計算方式也不同。Fernández等提出了3種不同的路徑,單回路二值梯度輪廓(BGC1),雙回路二值梯度輪廓(BGC2),三回路二值梯度輪廓(BGC3),圖5是3種路徑的表述方式。

        2.3 TBGC特征

        根據(jù)Antonio Fernández等[20]的實驗效果可知,BGC1比BGC2和BGC3的紋理描述能力更強,但是由于BGC1的編碼方式過于簡單,易受到噪聲的影響,所以本文對BGC1進行了改進,使其能夠更好地描述目標(biāo)的紋理特征。

        BGC1特征是根據(jù)3×3鄰域窗口內(nèi)順時針方向的鄰域像素點之間關(guān)系編碼得到的,由于只考慮到了鄰域像素點之間關(guān)系而忽略了中心像素點的影響,而中心像素點又是一個很重要的點,往往比周圍的點包含更多的信息,所以本文提出加入中心像素點以及3×3鄰域窗口內(nèi)逆時針方向的鄰域像素點之間關(guān)系的TBGC特征,使得提取的紋理信息更加豐富,增加了對噪聲的魯棒性,有更好的鑒別能力。圖6是TBGC算法示意圖。

        圖6中,首先以第一個3×3窗口的像素點[I7]為例,[I7]分別與[I0],[Ic],[I6]相鄰的3個像素點進行像素值的大小比較。其像素路徑編號[0,7,6,5,4,3,2,1,0],計算二值梯度輪廓的像素對為[0,7,c,7,6,7,7,6,c,6,5,6,...,1,0,c,0,7,0],其中c代表的是中心像素點,稱為TBGC。具體的計算公式(5)~(7)如下:

        [g1=sI7-I0,sI6-I7,sI5-I6,sI4-I5,sI3-I4,sI2-I3,sI1-I2,sI0-I1] , (5)

        [g2=sI7-I6,sI6-I5,sI5-I4,sI4-I3,sI3-I2,sI2-I1,sI1-I0,sI0-I7] , (6)

        [g3=sI7-Ic,sI6-Ic,sI5-Ic,sI4-Ic,sI3-Ic,sI2-Ic,sI1-Ic,sI0-Ic] , (7)

        式中:[g1]表示在順時針方向,中心點3×3鄰域窗口下,每個鄰域像素點與相鄰像素點順時針方向獲得的二進制編碼;同理,[g2]表示每個鄰域像素點與相鄰像素點逆時針獲得的二進制編碼;[g3]則表示每個鄰域像素點與中心像素點比較獲得的二進制編碼。[s(x)]為公式(4)表示的符號函數(shù)。

        最終,TBGC特征的二進制編碼[g]的計算公式為

        [g=g1 & & g2 & & g3] 。 (8)

        公式(8)還可表示為

        [g=[g1 & & g2 & & g3]=[s7,s6,…,s1, s0]]? ? ? ? [g=[g1g2g3]=[s7,s6,???,s0]] 。 (9)

        通過以上公式,依次計算所有…像素點的TBGC值,進而得到TBGC特征直方圖。像素點[Ix,y]TBGC值如式(10)所示:

        [TBGCIx,y=j=70sj×2j], (10)

        式中[sjj=0,1,...7]為公式(9)中[g]的每一個二進制值。

        在此基礎(chǔ)上,利用目標(biāo)車輛的正負樣本結(jié)合TBGC特征訓(xùn)練分類模型,并利用建立好的模型對幀間差分得到的候選運動區(qū)域進行二次篩選,得到最終的車輛檢測結(jié)果,實際的檢測結(jié)果在實驗中說明。

        3 實驗結(jié)果及分析

        本文的實驗數(shù)據(jù)集分別是公共數(shù)據(jù)集VIVID的數(shù)據(jù)集Egtest01-Egtest05、公共數(shù)據(jù)集KIT AIS中的MunichCrossroad01以及自建的兩個視頻序列DJI_0006和Video2。其中,Egtest01-Egtest02背景簡單,且無人機運動緩慢;Egtest03背景與運動目標(biāo)的顏色和紋理相近;Egtest04的分辨率較低;Egtest05背景復(fù)雜,光照變化明顯;MunichCrossroad01背景復(fù)雜,視頻中出現(xiàn)樹木和光照變化;Video2的背景復(fù)雜,但攝像機運動緩慢,背景變化較小;DJI_0006的特點是背景復(fù)雜且無人機運動較快,背景運動明顯。圖7是不同數(shù)據(jù)集示意圖。

        利用不同的數(shù)據(jù)集,本文從圖像配準(zhǔn)、車輛識別以及視頻車輛檢測三個方面進行詳細的實驗并分析。首先將本文方法與經(jīng)典的RANSAC算法進行對比,說明圖像配準(zhǔn)算法的有效性。實驗中利用本文提出的TBGC特征分別與傳統(tǒng)BGC1特征和經(jīng)典特征進行比較,進一步說明提出算法的優(yōu)勢。最后,將本文提出的TBGC特征應(yīng)用到航拍視頻序列中,與最新的算法進行對比,說明本文算法的有效性。

        3.1 圖像配準(zhǔn)

        圖像配準(zhǔn)實驗分別在背景變化劇烈的MunichCrossroad01和DJI_0006數(shù)據(jù)集上進行測試,表1是2個數(shù)據(jù)庫圖像配準(zhǔn)的實驗結(jié)果。表中,N代表兩幀圖像的特征點數(shù)目,[TP]代表匹配正確的特征點對數(shù),[FP]代表匹配錯誤的特征點對數(shù),P代表匹配正確率[P=TP/TP+FP]。由表1的數(shù)據(jù)可以看出,本文提出的判定角度剔除外點策略在兩個數(shù)據(jù)集上測試的特征點的匹配正確率分別為0.985 0和0.990 9,明顯高于基于RANSAC的0.880 4和0.964 8。圖8是分別在MunichCrossroad01、DJI_0006兩個數(shù)據(jù)集上的匹配結(jié)果。

        從兩組圖中可以看出,基于RANSAC的特征點匹配效果圖中,明顯存在角度值偏差較大的錯誤特征點對,而基于本文方法的匹配效果圖則可以看出,由于加入角度判定處理,處理結(jié)果中并不存在如RANSAC算法中的角度偏差大的匹配點對,因此相對效果更好。圖9是分別在MunichCrossroad01、DJI_0006兩個數(shù)據(jù)集上的基于RANSAC算法和基于本文方法的背景補償圖,以及幀間差分獲得的車輛候選區(qū)域。

        在MunichCrossroad01、DJI_0006兩個數(shù)據(jù)集上的配準(zhǔn)圖9a)、b)可以看出,在圖9a)中右下角以及圖9b)左側(cè)邊界中間車道的車輛區(qū)域,本文的算法比傳統(tǒng)的RANSAC算法的補償效果好;并從兩個數(shù)據(jù)集的幀差圖9c)、d)可以明顯地看出,本文算法實現(xiàn)的幀差效果顯著地減少了誤檢率。其中,在MunichCrossroad01數(shù)據(jù)集中其他未標(biāo)注的車輛均是靜止的車輛。

        3.2 車輛識別

        本文的訓(xùn)練數(shù)據(jù)從不同航拍數(shù)據(jù)集上隨機得到的,包含有不同背景和不同方向車輛的圖像為正樣本,不包含車輛的圖像為負樣本,部分樣本如圖10所示。提取樣本的TBGC特征,然后利用SVM訓(xùn)練分類,最后利用測試集驗證特征的有效性。由于數(shù)據(jù)集是航拍視頻序列,所以本文的測試集是分別從以上8個視頻序列上截取獲得的。

        為了驗證本文提出TBGC特征的有效性,與BGC1、LBP、HOG特征進行對比實驗,實驗結(jié)果如表2所示。

        在實驗中,訓(xùn)練集樣本數(shù)為5 156個,測試集Egtest01- Egtest05樣本數(shù)均為500,Munich Crossroad01樣本數(shù)為348,Video2和DJI_0006的樣本數(shù)分別為74、146。正負樣本比例為1∶1。

        表2可以明顯看出,本文提出的TBGC相對于原特征BGC1,在不同的測試集下準(zhǔn)確率有了顯著提高,除了Egtest03外均達到的90%以上。在Egtest03數(shù)據(jù)集上,由于目標(biāo)車輛與背景的像素差較小,且與訓(xùn)練的正樣本的車型差別較大,所以相對效果較差,識別率較低;在Egtest01數(shù)據(jù)集上由于背景單一,所以準(zhǔn)確率達到了99.6%,在復(fù)雜背景或具有不同姿態(tài)和光照的車輛的其他數(shù)據(jù)集上,本文提出的特征也平均達到了94%以上,提高了近10%到20%。TBGC特征較原BGC1特征充分考慮到鄰域像素點周圍的像素點以及中心像素點對鄰域像素點的量化的影響,使得TBGC特征可以提取更豐富的紋理信息,魯棒性更強,效果更好。同時,TBGC與LBP相比,LBP只是考慮中心像素點與鄰域像素點的關(guān)系進行量化,同上,不如TBGC考慮的充分。與HOG相比,由于航拍序列環(huán)境復(fù)雜多變,而HOG描述子對噪點相當(dāng)敏感,且航拍車輛的姿態(tài)多變,所以通過HOG特征得到的形狀信息不定,而TBGC側(cè)重于紋理信息,因此,效果更好。

        為了更好地看出實驗的有效性,本文畫出相應(yīng)了PR曲線和ROC曲線,如圖11所示。

        圖11a)為不同特征的PR曲線圖,從圖中可以看出本文提出的TBGC特征在相同的召回率的情況下,檢測精度P比BGC1、LBP和HOG的精度高,明顯代表本文特征的紅色線位于代表其他特征的線的上方,表明本文提出的特征要比其他的特征效果好。圖11b)是不同特征的ROC曲線,從圖中可以看出,代表本文特征的紅線相比于代表其他特征的線要更靠近于縱軸,更位于圖的上方,所以,可以明顯地看出紅線下方的面積值會更大,即AUC值更大。因此,相對于BGC1、LBP和HOG特征,本文提出的特征TBGC的效果更好。

        圖12為車輛誤識別即未檢出的情況示意。如圖12a)、b)分別是圖像模糊且具有陰影導(dǎo)致車輛與背景間的像素差特別小,進而車輛的紋理特征不明顯;車輛在圖像中所占的比例太小。以上兩種情況均導(dǎo)致了車輛的誤識別。

        3.3 視頻車輛檢測

        在航拍序列上進行圖像配準(zhǔn)后,首先利用幀間差分法獲得目標(biāo)候選區(qū)域,然后提取該區(qū)域的TBGC特征,將其輸入到訓(xùn)練好的模型當(dāng)中,最后根據(jù)分類器的分類標(biāo)簽判斷出目標(biāo)候選區(qū)域是車輛還是非車輛。本文將在VIVID數(shù)據(jù)集的Egtest01-Egtest05、MunichCrossroad01、Video2和DJI_0006視頻序列上進行實驗。

        圖13是8個數(shù)據(jù)集上的實驗效果圖,可以看出基于TBGC特征的車輛識別,明顯減少了幀差帶來的誤檢,其中,在MunichCrossroad01數(shù)據(jù)集中其他未標(biāo)注的車輛均是靜止的車輛。

        為了量化分析檢測的準(zhǔn)確性,定義召回率R、精度P和綜合評價指標(biāo)F值。

        式中:TP表示檢測到的正確的目標(biāo)數(shù);FN表示漏檢的目標(biāo)數(shù);FP值表示誤檢的目標(biāo)數(shù)。表3是不同視頻序列的P、R、F值。

        從表3中看出,不同視頻序列都表現(xiàn)出良好的實驗效果。VIVID數(shù)據(jù)集上目標(biāo)運動相對緩慢,且圖像分辨率低,所以P值、R值和F值相對居中;其中,Egtest04數(shù)據(jù)集由于分辨率低,幀差出現(xiàn)漏檢,所以在整體的實驗效果上相對較差;Video2數(shù)據(jù)集的背景復(fù)雜,但是因為其背景運動特別小,誤差小且能夠更好地得到運動目標(biāo)區(qū)域,所以效果會比VIVID數(shù)據(jù)集的效果好一點;MunichCrossroad01和DJI_0006屬于背景復(fù)雜,背景運動明顯的視頻序列,F(xiàn)值分別達到了0.943 2和0.927 4。

        從本文的實驗效果中可以得知,在目標(biāo)與背景顏色特別接近時,由于紋理差別太小,本文提出的TBGC特征無法識別出目標(biāo);在目標(biāo)進出視頻時,車輛過于不完整時,會出現(xiàn)漏檢;同時幀間差分方法當(dāng)目標(biāo)候選區(qū)域是背景區(qū)域且與訓(xùn)練時的車輛紋理特別接近時,會出現(xiàn)誤檢的情況。

        4 總結(jié)

        本文針對航拍車輛檢測準(zhǔn)確率低的情況,提出基于TBGC特征的幀間差分航拍車輛檢測算法。TBGC特征充分考慮3×3鄰域窗口內(nèi)順時針和逆時針方向的鄰域像素點以及中心像素點對中心像素點量化的影響,使得提取的紋理信息更加豐富,增加了對于噪聲的魯棒性,具有更好的鑒別能力,通過實驗證明了本文提出方法的有效性。但是在實際的測試中,對于紋理不明顯的車輛,TBGC特征會失效,同時幀間差分法對于與背景顏色相近的顏色車輛會漏檢,針對這兩個問題,本文將進行進一步研究。

        參考文獻:

        [1]? ? KUMAR R. Aerial video survelliance and exploitation[M]//Video-Based Surveillance Systems. Springer, Boston, MA, 2002: 29-38.

        [2]? ? 劉亞偉,李小民. 無人機航拍視頻中目標(biāo)檢測和跟蹤方法綜述[J]. 飛航導(dǎo)彈,2016(9):53-56,70.

        [3]? ? XU Y Z,YU G Z,WANG Y P,et al. A hybrid vehicle detection method based on viola-jones and HOG + SVM from UAV images[J]. Sensors,2016,16(8):1325.

        [4]? ? MADHOGARIA S,BAGGENSTOSS P,SCHIKORA M,et al. Car detection by fusion of HOG and causal MRF[J]. IEEE Transactions on Aerospace and Electronic Systems,2015,51(1):575-590.

        [5]? ? CHEN Z Y,WANG C,LUO H,et al. Vehicle detection in high-resolution aerial images based on fast sparse representation classification and multiorder feature[J]. IEEE Transactions on Intelligent Transportation Systems,2016,17(8):2296-2309.

        [6]? ? LIU K,SKIBBE H,SCHMIDT T,et al. Rotation-invariant HOG descriptors using fourier analysis in polar and spherical coordinates[J]. International Journal of Computer Vision,2014,106(3):342-364.

        [7]? ? MORANDUZZO T,MELGANI F. Detecting cars in UAV images with a catalog-based approach[J]. IEEE Transactions on Geoscience and Remote Sensing,2014,52(10):6356-6367.

        [8]? ? 毛征,劉松松,張輝,等. 不同光照和姿態(tài)下的航拍車輛檢測方法[J]. 北京工業(yè)大學(xué)學(xué)報,2016,42(7):982-988.

        [9]? ? MORANDUZZO T,MELGANI F. A SIFT-SVM method for detecting cars in UAV images[C]//2012 IEEE Iternational Geoscience and Remote Sensing Symposium,22-27 July 2012,Munich,Germany,2012:6868-6871.

        [10]? MORANDUZZO T,MELGANI F. Automatic car counting method for unmanned aerial vehicle images[J]. IEEE Transactions on Geoscience and Remote Sensing,2014,52(3):1635-1647.

        [11]? POOSTCHI M,PALANIAPPAN K,SEETHARAMAN G. Spatial pyramid context-aware moving vehicle detection and tracking in urban aerial imagery[C]//2017 14th IEEE International Conference on Advanced Video and Signal Based Surveillance (AVSS),29 Aug. -1 Sept. 2017,Lecce,Italy,2017:1-6.

        [12]? XU Y Z,YU G Z,WU X K,et al. An enhanced viola-jones vehicle detection method from unmanned aerial vehicles imagery[J]. IEEE Transactions on Intelligent Transportation Systems,2017,18(7):1845-1856.

        [13]? MALAGI V P, BABU D R R. Rotation-invariant fast feature based image registration for motion compensation in aerial image sequences[C]//Proceedings of International Conference on Cognition and Recognition. Springer, Singapore, 2018: 211-221.

        [14]? WANG G L,WANG X C,F(xiàn)AN B,et al. Feature extraction by rotation-invariant matrix representation for object detection in aerial image[J]. IEEE Geoscience andRemote Sensing Letters,2017,14(6):851-855.

        [15]? LIN Y D,HE H J,YIN Z K,et al. Rotation-invariant object detection in remote sensing images based on radial-gradient angle[J]. IEEE Geoscience and Remote Sensing Letters,2015,12(4):746-750.

        [16]? WANG G L,F(xiàn)AN B,ZHOU Z L,et al. Ordinal pyramid coding for rotation invariant feature extraction[J]. Neurocomputing,2017,242:150-160.

        [17]? AMMOUR N,ALHICHRI H,BAZI Y,et al. Deep learning approach for car detection in UAV imagery[J]. Remote Sensing,2017,9(4):312.

        [18]? CHEN X Y,XIANG S M,LIU C L,et al. Vehicle detection in satellite images by hybrid deep convolutional neural networks[J]. IEEE Geoscience and Remote Sensing Letters,2014,11(10):1797-1801.

        [19]? DENG Z P,SUN H,ZHOU S L,et al. Toward fast and accurate vehicle detection in aerial images using coupled region-based convolutional neural networks[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2017,10(8):3652-3664.

        [20]? FERNáNDEZ A,áLVAREZ M X,Bianconi F. Image classification with binary gradient contours[J]. Optics and Lasers in Engineering,2011,49(9/10):1177-1184.

        [21]? BAY H,ESS A TUYTELAARS T,et al Speeded-up robust features (SURF)[J]. Computer Vision and Image Understanding,2008,110(3):346-359.

        [22]? CHUM O, MATAS J, KITTLER J. Locally optimized RANSAC[C]//Joint Pattern Recognition Symposium. Springer, Berlin, Heidelberg, 2003: 236-243.

        [責(zé)任編輯 田 豐]

        猜你喜歡
        鄰域航拍像素點
        航拍下的苗圃與農(nóng)場
        中外文摘(2021年10期)2021-05-31 12:10:40
        稀疏圖平方圖的染色數(shù)上界
        基于鄰域競賽的多目標(biāo)優(yōu)化算法
        難忘的航拍
        基于canvas的前端數(shù)據(jù)加密
        《航拍中國》美得讓人想哭
        基于逐像素點深度卷積網(wǎng)絡(luò)分割模型的上皮和間質(zhì)組織分割
        陜西畫報航拍
        陜西畫報(2017年1期)2017-02-11 05:49:48
        關(guān)于-型鄰域空間
        基于Node-Cell結(jié)構(gòu)的HEVC幀內(nèi)編碼
        中文字幕亚洲精品高清| 国产成a人亚洲精v品无码性色| 最新国产一区二区精品久久| 亚洲最大av免费观看| 亚洲精品国产亚洲av| 久久亚洲欧美国产精品| 日本巨大的奶头在线观看| 久久久亚洲精品蜜桃臀| 亚洲精品天堂日本亚洲精品| 精品日韩亚洲av无码| 中文字幕亚洲情99在线| 免费国产黄片视频在线观看| 国产在线视频一区二区三区| 夫妻免费无码v看片| 四川老熟女下面又黑又肥| 亚洲国产一区二区三区最新| 91青青草手机在线视频| 久久久精品中文字幕麻豆发布| 无码精品a∨在线观看| 国产精品国产三级国产专区5o| 成人全部免费的a毛片在线看| 国产精品美女一区二区视频| 亚洲av男人的天堂在线观看| 亚州AV成人无码久久精品| 国产精品髙潮呻吟久久av| 肉色欧美久久久久久久免费看| 69精品丰满人妻无码视频a片| 黄片在线观看大全免费视频| 亚洲精品视频1区2区| 国产真实乱对白精彩久久老熟妇女| 国产精品入口牛牛影视| 澳门精品一区二区三区| 亚洲一区二区女搞男| 亚洲色欲久久久久综合网| 午夜无码熟熟妇丰满人妻| 国产主播性色av福利精品一区| 免费成人在线电影| 精品久久久久一区二区国产| 看大陆男女真人草逼视频| 成人丝袜激情一区二区| 爽爽午夜影视窝窝看片|