亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        動態(tài)云臺攝像機無人機檢測與跟蹤算法

        2021-11-30 05:18:34謝家陽王行健史治國吳均峰陳積明陳潛王濱
        智能系統(tǒng)學報 2021年5期
        關鍵詞:區(qū)域檢測

        謝家陽,王行健,史治國,吳均峰,陳積明,陳潛,王濱

        (1. 浙江大學 信息學部,浙江 杭州 310027; 2. 上海無線電設備研究所,上海 200090; 3. 杭州海康威視數(shù)字技術股份有限公司,浙江 杭州 310052)

        以多旋翼為主的低空小型無人機已廣泛應用于環(huán)境監(jiān)測、電力巡查、農業(yè)植保、影像航拍、攝影測量、5G移動基站[1]等工業(yè)、軍事、民用領域,在其市場快速增長的同時,無人機的“黑飛”與“濫飛”也對個人隱私及公共安全產生了嚴重的威脅和挑戰(zhàn)[2]。無人機防控不僅是城市安全和隱私保護的問題,更是關系到國家安全與形象的大事,因此迫切需要研發(fā)一整套完整有效的技術手段以實現(xiàn)對低空飛行器的監(jiān)測和防控。

        Shi等[3]對反無人機監(jiān)控手段進行詳細的介紹和對比,反無人機監(jiān)測主要有雷達、射頻、音頻及視覺探測4種方式,4種方式各有優(yōu)劣。雷達探測通過無人機反射的回波測量無人機的速度、方位,但雷達成本高、輻射大、易受地面雜波影響,不適用于城市環(huán)境;射頻探測利用無人機與遙控器之間的通信或圖傳信號對無人機進行檢測與定位,但射頻天線成本較高,檢測受無人機通信協(xié)議限制;音頻探測利用麥克風陣列對無人機旋翼發(fā)出的聲音進行檢測與定位,但作用距離較短,且易受環(huán)境噪聲和多徑效應影響。視覺檢測利用攝像機獲取監(jiān)控區(qū)域的視頻,利用圖像特征進行無人機檢測與跟蹤。由于視覺監(jiān)測方式成本低、普適性強、檢測距離較遠且能直觀顯示檢測結果,已成為反無人機監(jiān)測領域研究的熱點。

        目標檢測是計算機視覺最基礎的任務之一,自計算機視覺誕生以來,一直是學術界研究的重點領域。視覺目標檢測算法可分為傳統(tǒng)目標檢測算法和深度學習目標檢測算法。傳統(tǒng)目標檢測算法通常使用滑動窗口生成大量候選區(qū)域,然后在提取其人工設計特征后使用機器學習算法對目標進行檢測與識別,但這些方法檢測效率低下,且對復雜背景中形態(tài)多樣、姿態(tài)多變的目標檢測效果不佳[4-5]。

        隨著圖形處理器(graphics processing unit,GPU)并行計算技術的快速發(fā)展與深度學習算法的興起,基于深度學習的目標檢測算法發(fā)展迅速,其主要可以分為一階段和二階段目標檢測算法。一階段深度學習目標檢測將圖像中的所有位置均視作潛在目標,通過神經網(wǎng)絡直接產生目標的類別與位置,檢測速較快,但精度相對于二階段目標檢測算法略有不如,代表算法有基于 anchor機制的YOLO(you only look once)系列算法[6]、SSD(single shot multibox detector)算法[7]和基于特征點的CornerNet[8]、CenterNet[9]。除了基于深度卷積神經網(wǎng)絡架構的目標檢測算法外,基于Tranformer的目標檢測算法也是一階段目標檢測算法的重要分支[10]。二階段深度學習算法將目標檢測劃分為候選區(qū)域生成、候選區(qū)域分類與邊界框調整兩個階段,代表算法為RCNN(region-based convolutional neural networks)系列目標檢測算法[11]。候選區(qū)域生成的目的在于快速準確地找出圖像中目標可能存在的區(qū)域,除了最暴力的多尺度滑動窗口法,研究者們還提出了基于圖像分割的超像素聚類候選區(qū)域生成方法,如基于圖結構的圖像分割算法[12]和選擇性搜索算法[13],此類方法消除規(guī)則網(wǎng)格、固定形狀與尺度對候選區(qū)域的限制。窗口評分候選區(qū)域生成方法如Objectness[14]、Edge-Boxes[15]等是另一類重要候選區(qū)域生成方法,此類算法對每個滑動矩形窗口是否包含物體進行評分,并只能返回矩形候選框而非目標輪廓,速度相較于超像素聚類方法更快。除非窗口采樣比較密集,窗口評分候選區(qū)域生成法的位置精度都較低。Faster RCNN[16]首次將基于錨框的候選區(qū)域生成網(wǎng)絡(region proposal network, RPN)引入并將其嵌入到Fast RCNN的檢測網(wǎng)絡中,實現(xiàn)了整個檢測框架端到端的優(yōu)化。如何實現(xiàn)快速準確且適用于尺度目標檢測的候選區(qū)域生成方法仍是目標檢測研究領域的重要研究方向之一。第二階段對候選區(qū)域進行分類與邊界框調整一般通過卷積神經網(wǎng)絡實現(xiàn),經典的卷積神經網(wǎng)絡模型有AlexNet、VGG Net、GoogleNet、ResNet、MobileNet、Res-NeX和ShuffleNet等[17],為兼顧神經網(wǎng)絡模型的可訓練性、推理速度與精度,對于特征任務,現(xiàn)在通常采用神經網(wǎng)絡結構搜索的方法以獲取最優(yōu)的網(wǎng)絡模型[18]。在檢測到無人機后,需要控制云臺對快速飛行的無人機進行持續(xù)伺服追蹤,使無人機一直保持在攝像機的視角中[19]。在云臺伺服追蹤過程中,仍需對視頻中的無人機進行檢測,為云臺的控制算法提供反饋信息。在確認視頻圖像中目標的類別與位置后,仍持續(xù)地對后續(xù)的每一幀高分辨率圖像進行全局檢測是對計算資源的浪費,為快速高效地對畫面中位置已知的無人機進行跟蹤,本文采用基于局部搜索的圖像單目標跟蹤算法對后續(xù)視頻中的無人機進行跟蹤定位?;诰植繖z測的相關濾波目標跟蹤算法是單目標跟蹤算法的經典方法之一,此類算法利用循環(huán)卷積和快速傅里葉變換高效地訓練分類器,并可以快速對局部區(qū)域內的跟蹤目標進行檢測與定位,其代表算法有最小均方誤差和輸出跟蹤算法[20]、核相關濾波跟蹤算法[21]、尺度自適應跟蹤算法[22]等。在剛引入深度學習時,只是使用卷積神經網(wǎng)絡特征替換方向梯度直方圖(histogram of oriented gradient, HOG)[5]等手工特征,使相關濾波器能獲得更魯棒的跟蹤能力,如C-COT(continuous convolution operators tracking)[23]、ECO(efficient convolution operators)[24]等。完全端到端的深度學習跟蹤算法肇始于2016年牛津大學Luca Bertinetto等[25]提出的Siamese-fc孿生網(wǎng)絡目標跟蹤,在此基礎上Siam RPN[26]、Siam Mask[27]等深度學習目標跟蹤相繼提出。雖然深度學習目標跟蹤算法的性能更佳,其檢測速度比相關濾波目標跟蹤算法慢得多,但是這種可實現(xiàn)快速處理的相關濾波目標跟蹤算法在后續(xù)幀的局部搜索區(qū)域會隨轉運的攝像機發(fā)生偏移,導致跟蹤失敗。

        為實現(xiàn)全方位、高復雜、遠距離環(huán)境下的對無人機的實時準確檢測、識別與跟蹤,本文通過高清云臺攝像機對監(jiān)測范圍進行持續(xù)動態(tài)掃描,并提出了一種反無人機視覺閉環(huán)檢測與跟蹤框架。本文的主要貢獻如下:

        1)提出了一種適用于云臺攝像機定點巡航的二階段目標檢測算法,此算法首先對由于攝像機運動產生的視頻背景運動進行補償,然后使用三幀差分法生成運動目標候選區(qū)域,并使用由神經網(wǎng)絡結構搜索得到的深度卷積神經網(wǎng)絡進行分類識別,可在不縮小高清視頻圖像的情況下實現(xiàn)對復雜動態(tài)背景中無人機的快速準確檢測;

        2)提出了一種基于背景補償和卡爾曼濾波的局部搜索區(qū)域重定位策略改進了核相關跟蹤算法,解決了由于高清云臺攝像機伺服追蹤引局部搜索區(qū)域偏移問題,在視頻背景運動的情況下也能對快速飛行的無人機進行準確、穩(wěn)定地跟蹤;

        3)提出了一種自適應切換機制將檢測模塊和跟蹤模塊結合成一個閉環(huán)系統(tǒng),通過深度卷積神網(wǎng)絡的分類結果自動為跟蹤模塊提供初始化跟蹤框,并使用相關濾波跟蹤響應圖的平均峰值能量比和最大峰值能量來表征跟蹤效果的優(yōu)劣,在跟蹤失敗時自動切換至檢測模式。

        1 算法基本框架

        本文提出了一種適用于云臺攝像機動態(tài)掃描狀態(tài)的自適應閉環(huán)無人機檢測與跟蹤算法,包含檢測與跟蹤兩種模式,并通過一種自適應切換機制將檢測模式與跟蹤模式有機結合在閉環(huán)框架中,算法的框架圖如圖1所示。

        圖1 算法框架Fig.1 Algorithm framework

        首先本文采用高清云臺攝像機對中近程近地動態(tài)復雜背景進行定點巡航掃描,此時攝像機處于檢測模式,使用基于運動背景補償三幀差分法提出候選目標并通過一個輕量級的深度卷積神經分類網(wǎng)絡對候選目標進行分類;根據(jù)自適應檢測–跟蹤切換機制,當目標屬于無人機的概率大于預設閾值時,攝像機切換到跟蹤模式,采用引入了局部搜索區(qū)域重定位策略的相關濾波跟蹤算法對無人機進行跟蹤;自適應檢測–跟蹤機制將根據(jù)相關濾波響應圖的狀態(tài)對跟蹤效果進行評估,若跟蹤效果較好,云臺攝像機將根據(jù)跟蹤結果對無人機進行持續(xù)地伺服追蹤;若跟蹤失敗,云臺攝像機則重新切換到定點巡航檢測模式。算法的可視化流程如圖2所示。

        2 檢測模式算法設計

        云臺攝像機定點巡航狀態(tài)下的檢測模式采用如圖2所示的兩階段目標檢測框架。準確且快速的候選區(qū)域生成對實時目標檢測至關重要。入侵的無人機基本都是處于飛行狀態(tài),故可采用運動目標檢測算法提取候選區(qū)域,然后再使用深度卷積神經網(wǎng)絡對其進行分類識別。但定點巡航狀態(tài)的云臺攝像機采集的視頻背景是動態(tài)變化的,無法使用傳統(tǒng)的幀間差分法或背景減除法進行運動目標檢測。光流法可檢測運動背景中的運動目標,但其計算量太大,無法實現(xiàn)對高清視頻的實時處理。為實現(xiàn)攝像機巡航狀態(tài)下運動目標檢測,本文提出了一種基于運動背景補償?shù)娜龓罘址▽σ伤七\動目標進行檢測。

        圖2 算法可視化流程Fig.2 Visualization of the algorithm flowchart

        2.1 運動背景補償

        式中:Hkl2R3×3為兩幀中對應特征點坐標轉化的單應性矩陣;i=1,2,···,N,N為圖像中特征點的數(shù)量。首先選取云臺攝像機旋轉過程中的鄰近的兩幀視頻圖像Il和Ik,分別提取兩幀圖像中的ORB(oriented FAST and rotated BRIEF)[29]特征點,然后利用快速最近鄰逼近搜索對兩幀圖像中的ORB特征點進行初步匹配,由于視頻幀率較高,拍攝連續(xù)幾幀視頻時攝像機轉動的角度較小,則兩幀中對應的特征點相距較近,故可以設置閾值濾除漢明距離過大的錯誤特征點對,以提高匹配的準確率。為進一步減弱錯誤匹配的特征點對和前景特征點對對單應性矩陣估計的影響,本文采用隨機抽樣一致性算法[30]對特征點對進行采樣,然后使用最小二乘法對單應性矩陣進行估計,最后對視頻圖像Il上的每一個像素點都進行坐標變換,即可得到背景與Ik對齊的圖像Ikl。運動背景補償前后的運動目標檢測效果圖對比如圖3所示。

        圖3 運動背景補償前后的運動目標檢測效果對比Fig.3 Comparison of the moving target detection results before and after background motion compensation

        2.2 運動目標檢測

        圖4 不同運動目標區(qū)域生成算法效果對比Fig.4 Comparisons of different moving region proposal generation methods

        2.3 深度卷積神經網(wǎng)絡分類器

        在生成運動目標候選區(qū)域后,本文設計了一個深度卷積神經分類網(wǎng)絡對候選區(qū)域進行分類,判斷其是否為無人機。為提高檢測速度,可以先根據(jù)無人機形狀的先驗信息將區(qū)域外接矩形橫縱比小于1或大于3的候選區(qū)域篩除。為兼顧分類的實時性和準確度,本文以運算量和準確度為優(yōu)化目標,結合復合模型擴張方法與神經網(wǎng)絡結構搜索尋找面向分類任務最優(yōu)的網(wǎng)絡深度、寬度與分辨率[18],設計了一個高效的輕量級深度卷積神經分類網(wǎng)絡EfficientNet-B0,其主干網(wǎng)絡的結構如圖2和表1所示。

        表1 EfficientNet-B0的網(wǎng)絡結構Table 1 Architecture of EfficientNet-B0

        首先將輸入圖像縮放為 2 24×224, 經過3×3×32的卷積核7個串聯(lián)的MBConv(mobile inverted residual bottleneck convolution)模塊來循環(huán)擴張和壓縮特征通道,以獲取更好的學習能力,增加網(wǎng)絡的深度。其中,MBConv模塊通過 1 ×1 卷積核將特征進行通道擴展,經過 3 ×3 和 5 ×5的深度可分卷積核進行通道特征提取后,由 1 ×1 卷積核進行特征通道壓縮,輸出經尺寸壓縮及通道擴張后的特征圖。此外在MBConv模塊中,還引入通道注意力機制(squeeze-and-excitation block,SE)[35]和神經元隨機失活機制[36],選擇性加強包含有用信息的特征,降低過擬合風險。7層MBConv模塊輸出的 7×7×320 特征圖經過 1 ×1 卷積核的通道壓縮、池化層的空間壓縮后,將特征張量扁平化為一維向量,輸入全連接層利用sigmoid函數(shù)輸出一維概率向量。該預測向量給出目標屬于各個類別的概率,并選擇最大值所在的類別作為分類結果,當侯選目標屬于無人機的概率大于預設的檢測–跟蹤切換閾值時,使用該目標的檢測框初始化跟蹤算法。

        3 跟蹤模式算法設計

        當檢測到無人機后,算法將切換到跟蹤模式,在此模式下,結合局部搜索區(qū)域重定位策略的核相關濾波跟蹤算法將對經檢測算法初始化的無人機在畫面中的位置進行持續(xù)跟蹤,同時為使無人機保持在視頻畫面中,云臺控制算法以目標在視頻畫面中離視頻中心的距離與方位為反饋量,采用比例?積分?微分(proportion integration differential, PID)控制算法控制云臺轉動對無人機進行伺服追蹤[19]。

        3.1 核相關濾波跟蹤算法原理

        由Henriques等[21]提出的核相關濾波跟蹤算法是一種判別式局部區(qū)域跟蹤算法,在當前幀訓練一個局部區(qū)域目標檢測器,使用該目標檢測器在下一幀的鄰近區(qū)域對目標進行搜索,并使用新的檢測結果更新目標檢測器,檢測速度可達每秒幾百幀。為避免密集采樣帶來的重復特征提取和復雜訓練過程的高耗時,核相關濾波跟蹤器以檢測器提供的初始檢測框為正樣本,提取其fHOG[37]特征圖p2Rm×n×l, 其中m、n、l分別為fHOG特征圖的長、寬與通道數(shù),通過循環(huán)移位對所提取的fHOG特征圖進行近似密集采樣生成樣本集合S=f(pi,gi)ji=1,2,···,(m×n)g ,其中pi為合成樣本,gi2[0,1] 為其對應標簽,所有的gi根據(jù)空間排布可生成一張對應于循環(huán)移位大小的高斯分布圖G2Rm×n,離中心越近,標簽值越大。此局部目標檢測器可建模成一個嶺回歸優(yōu)化問題[38]:

        式中: φ(·) 函數(shù)可將低維空間的樣本映射到高維空間;λ 為正則化因子。根據(jù)∑表示定理[39],此優(yōu)化問題的最優(yōu)解可表示為w=iαiφ(pi),則優(yōu)化問題轉化為求最優(yōu)的線性組合系數(shù) α,由于訓練樣本均是由循環(huán)位移產生的,利用循環(huán)矩陣的性質[40],將分類器訓練過程轉化到頻域中計算,將復雜費時的矩陣求逆操作轉化為簡單快速的元素點乘,最優(yōu)的線性組合系數(shù) α 為

        在原核相關濾波算法中,該檢測器是在上一幀目標所在位置的中心點的矩形區(qū)域內進行搜索,得到跟蹤響應圖 ?=F?1(F(kpq)⊙F(α)),其中kpq為初始檢測框與搜索框對應的fHOG特征圖p、q的高斯核函數(shù)。對應于跟蹤響應圖 ? 峰值的坐標即為被跟蹤目標的新位置。核相關濾波跟蹤算法的可視化流程圖如圖2所示。

        3.2 局部搜索區(qū)域重定位

        由于云臺攝像機在追蹤無人機過程中自身的轉動,即使無人機在物理空間中是靜止的,其在視頻不同幀中的圖像坐標也將出現(xiàn)變化,另外當無人機飛行速度較快時,它可能會飛出局部搜索框,為了更準確地跟蹤無人機,在上一幀的相同位置對無人機進行跟蹤是不合理的,為實現(xiàn)在動態(tài)追蹤的云臺攝像機中對快速運動的無人機進行跟蹤,本文對無人機在下一幀中的搜索位置進行預測和補償,以實現(xiàn)搜索區(qū)域重定位,使核相關濾波跟蹤算法在云臺攝像機轉動導致背景運動時仍能對快速飛行的無人機進行穩(wěn)定的跟蹤。

        圖5給出了2種不同情況下局部搜索區(qū)域重定的跟蹤效果示意圖,圖5(a)為無人機運動較慢情形,是否進行局部搜索區(qū)域重定位在這種條件下對目標跟蹤效果影響不大,但是在圖5(b)所示無人機運動速度較快或者云臺旋轉較快時,無人機在第k幀中將處于未經重定位的黃色局部搜索區(qū)域外,而在經過局部搜索區(qū)域重定位后,無人機在第k幀中將仍處于藍色局部搜索區(qū)域內。

        圖5 局部搜索區(qū)域重定位跟蹤效果示意Fig.5 Illustration of tracking algorithms with and without local search area relocation

        4 自適應檢測跟蹤切換機制

        為實現(xiàn)檢測模式與跟蹤模式的自適應切換,本文設計了一種自適應切換機制,將前文提到的檢測模式與跟蹤模式整合到一個閉環(huán)框架中。如前文所述,檢測模式的檢測結果可為跟蹤算法提供精確可靠的初始框,具體地,當深度卷積神經分類網(wǎng)絡分類結果中,屬于無人機的概率超過某閾值的目標檢測框即跟蹤算法的初始跟蹤框。

        在對無人機進行跟蹤的過程中,遮擋、光線變化、模糊、目標變形等因素均會造成跟蹤失敗,一旦跟蹤失敗,算法會自動切換至檢測模式,為此本文根據(jù)核相關濾波跟蹤響應圖提出了一種自動跟蹤效果評估機制。如圖2所示,無人機在搜索框中的位置是由響應圖 ? 中峰值對應的位置決定的,跟蹤響應圖一定程度上也可以反映跟蹤器的跟蹤效果,如圖6所示。在正常跟蹤時,響應圖一般只有一個較大的尖峰,其余部分都較為平坦;在目標被遮擋或消失導致跟蹤失敗時,其響應圖可能出現(xiàn)多個尖峰,峰值均較小,且各處凹凸不平,為定量化描述跟蹤響應圖的狀態(tài),本文提出使用平均峰值能量比 ρ 來表征跟蹤效果的優(yōu)劣:

        式中:τ 為響應圖的最大峰值。如圖6所示,在正常跟蹤時,響應圖的平均峰值能量比 ρ 可達152.6,而跟蹤失敗時, ρ 僅為8.4。圖7為某次跟蹤平均峰值能量比 ρ 在不同幀的變化曲線,在開始時 ρ 在較高值附近上下波動,此時認為跟蹤正常,繼續(xù)跟蹤;當 ρ 迅速減小,本文設定當最新視頻幀中平均峰值能量比 ρ 小于其歷史平均值的 1 /2 時,判定跟蹤失敗,立即切換至檢測模式。

        圖6 正常跟蹤和跟蹤失敗時的響應圖對比Fig.6 Response maps of good and bad tracking

        圖7 平均峰值能量比 ρ 變化曲線Fig.7 Changing curve of the mean peak energy ratio

        5 實驗與分析

        為驗證本文提出的反無人機視覺閉環(huán)檢測與跟蹤算法的有效性,本文對算法的不同模式和整體性能都做了詳盡的測試和評估。

        5.1 運動目標候選區(qū)域生成算法

        為測試檢測模式中的基于運動背景補償?shù)倪\動目標檢測算法,本文采用開源數(shù)據(jù)集changeDetection[42]中PTZ攝像機目標下的4個圖像序列作為測試集,使用準確率P、召回率r和F1分數(shù)對檢測結果進行評估,其具體定義為

        式中:TP為檢測正確的前景像素點個數(shù);FP為將背景檢測成前景的像素個數(shù)(誤檢);FN為將前景檢測為背景的像素個數(shù)(漏檢)。本文提出的算法與已有算法EFIC[43]、WeSamBE[44]在此數(shù)據(jù)集上的比較結果如表2所示。

        表2 運動目標檢測算法性能比較Table 2 Comparisons of moving target detection

        由表2可知,本文提出的算法雖然在準確率上相較于EFIC、WeSamBE較低,但其召回率與F1參數(shù)均是3種算法中最高的,在候選區(qū)域生成階段應盡可能發(fā)現(xiàn)可能的目標,故相較于準確率,候選區(qū)域生成算法更關注召回率指標。

        5.2 深度卷積神經分類網(wǎng)絡

        為評估本文中的深度卷積神經分類網(wǎng)絡,本文構建了一個無人機分類數(shù)據(jù)集,包含復雜環(huán)境下的無人機圖像作為正樣本,共600張,另包含了飛機、鳥類、行人、樹木等負樣本圖像,共200張,如圖8所示,數(shù)據(jù)集中訓練集和測試集的比例為7∶3。

        圖8 無人機分類數(shù)據(jù)集Fig.8 Drone classification dataset

        為在達到高精度的同時兼顧運算速度,實驗通過網(wǎng)絡結構搜索,共生成了8種不同尺寸的網(wǎng)絡(EfficientNet-b0~b7),其參數(shù)量依次增加,前向計算速度逐漸降低。由于在本文面向的場景中,分類類別數(shù)量較少,如果盲目應用參數(shù)量較大的網(wǎng)絡,反而會提升過擬合風險并降低分類精度。為實現(xiàn)精度與速度的平衡,實驗在所構成的分類數(shù)據(jù)集上依次評測所有生成的EfficientNet系列網(wǎng)絡,使用單塊Tesla T4 GPU,實驗結果如圖9所示。結果表明,EfficientNet-b0的分類準確率和速度可達到97.2%和258 FPS,在達到無人機辨別任務精度要求的同時,滿足檢測系統(tǒng)的速度要求,綜合性能最好。

        圖9 EfficientNet系列網(wǎng)絡的性能對比評估Fig.9 Performance assessment of EfficientNet networks

        5.3 核相關濾波跟蹤算法實驗結果

        為評估局部搜索區(qū)域重定位核相關濾波跟蹤算法,本文構建了一個無人機檢測與跟蹤測試數(shù)據(jù)集,包含24段云臺攝像機拍攝視頻片段,圖像大小均為2 048×1 536,幀率為24 FPS,包含不同天氣、背景和距離下不同種類、尺度和姿態(tài)的無人機。本文利用距離精度(precision)和成功率(success rate)為指標來量化算法的跟蹤效果,定義中心位置誤差(center location error, CLE)為跟蹤框與真實框中心點之間的距離,定義跟蹤框與真實框相交的面積與其共同占據(jù)的面積之比為交并比(intersection over union, IOU)。距離精度為CLE小于某閾值的幀數(shù)占總幀數(shù)之比,而跟蹤成功率則定義為IOU大于某閾值的幀數(shù)占總幀數(shù)之比,在不同閾值下的距離精度和成功率可由距離精度圖和成功率圖表示。

        由于影響閉環(huán)檢測與跟蹤算法的因素很多,為詳盡地探究不同因素對跟蹤性能的影響,本文進行了一系列消融性實驗。在控制了其他因素相同的條件下,首先本文對比了基于幀間差分法和基于三幀差分法檢測器初始化跟蹤器對跟蹤效果的影響,其跟蹤效果如圖10所示。由圖10可知,基于三幀差分的檢測算法的跟蹤框初始化方法可取得更好的跟蹤效果;然后對比了改進前后的核相關濾波跟蹤對跟蹤效果,如圖11所示,使用了局部搜索區(qū)域重定位策略的核相關濾波跟蹤算法跟蹤效果更佳;最后驗證了自適應檢測跟蹤切換機制對目標跟蹤的影響,與之作為對比,比較算法每隔固定時間(實驗設置為30幀)對跟蹤器進行初始化,兩種檢測–跟蹤切換機制的跟蹤效果如圖12所示。由圖12可知自適應檢測–跟蹤切換機制下的目標跟蹤效果優(yōu)于固定周期檢測–跟蹤切換機制。

        圖10 不同初始化方法的成功率和距離精度Fig.10 Success plot and precision plot of the tracker with different initialization method

        圖11 核相關濾波跟蹤改進前后的成功率和距離精度Fig.11 Success plot and precision plot of the tracker with and without searching area relocation

        圖12 基于自適應切換機制與固定周期切換機制的跟蹤成功率和距離精度Fig.12 Success plot and precision plot of the tracker with adaptive switching and periodic redetection mechanisms

        5.4 算法實現(xiàn)細節(jié)與實驗測試

        在實際測試中,本文以CPU型號為Intel core i7-7 700、內存8 GB、GPU為11 GB的Nvidia Ge-Force GTX 1080ti計算機為中央處理器,使用4路型號為HIKVISION DS2DF7330IW的云臺攝像機對周邊區(qū)域進行定點巡航掃描,視頻圖像分辨率為2 048×1 536,幀率為24 FPS,支持水平 3 60?、豎直?2?~90?旋轉和30倍光學變焦。所有算法由C++和python混合實現(xiàn),圖13為由C#編寫的人機交互界面,其中左側為視頻圖像顯示框,右側則包插云臺控制按鈕、檢測報警燈、識別目標與分類結果框。為驗證算法的優(yōu)越性,本文對比Yolo v3[6]、Faster RCNN[16]與本文所提出的算法在5.3節(jié)提出的無人機檢測與跟蹤數(shù)據(jù)集進行了對比實驗,并采用平均正確率(average precision,AP)和幀率(frame per second, FPS)對算法進行評估,其比較結果如表3所示。其中在使用Yolo v3進行檢測時,需將視頻圖像縮小至 6 08×608。由表3可知,本文提出的算法對于無人機檢測與跟蹤數(shù)據(jù)集的AP為94.90%,F(xiàn)PS可達33.1,在檢測效果與其他2種經典目標檢測算法相媲美的條件下,檢測速度遠遠優(yōu)于其它兩種算法。本文做了大量的實際測試,測試結果顯示本文提出的算法及其系統(tǒng)實現(xiàn)可對各種復雜場景下的無人機檢測與跟蹤,實驗測試檢測與跟蹤效果圖如圖14所示,檢測距離最遠達1 000米。

        圖13 系統(tǒng)人機圖像交互界面Fig.13 Graphic user interface of the system

        表3 不同檢測算法性能比較Table 3 Comparisons of different detection algorithm

        圖14 實際實驗場景檢測與跟蹤效果Fig.14 Detection and tracking results of field tests

        6 結束語

        本文提出了一個適用于高清云臺攝像機定點巡航掃描狀態(tài)的無人機閉環(huán)檢測與跟蹤算法,此算法通過一種自適應檢測–跟蹤切換機制將檢測模式和跟蹤模式有機的結合在了一個閉環(huán)框架中,可實現(xiàn)快速實時、準確、穩(wěn)定的無人機檢測、識別與跟蹤。與以往工作不同,本文在目標檢測模塊中提出了一個快速準確、無需對高清視頻圖像進行尺度縮小的二階段目標檢測框架;并用局部搜索區(qū)域重定位策略改進了核相關跟蹤算法;最后提出了一種自適應切換機制實現(xiàn)了檢測模塊和跟蹤模塊的自動切換。大量實驗和實際測試也證明了算法不同模式與自適應閉環(huán)框架的有效性。

        猜你喜歡
        區(qū)域檢測
        永久基本農田集中區(qū)域“禁廢”
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        分割區(qū)域
        “幾何圖形”檢測題
        “角”檢測題
        小波變換在PCB缺陷檢測中的應用
        關于四色猜想
        分區(qū)域
        成人性生交大片免费看i| 久久人妻少妇嫩草av蜜桃| 日本中文字幕在线播放第1页| 久久久精品人妻一区二区三区日本| 亚洲成人激情深爱影院在线| 亚洲综合成人婷婷五月网址| 亚洲最大av资源站无码av网址| 国产亚洲第一精品| 亚洲一区二区三区1区2区| 又硬又粗进去好爽免费| 亚洲av日韩专区在线观看| 巨爆乳中文字幕爆乳区| 日本一区二区三区精品不卡| 亚洲av成人一区二区三区本码| 少妇无码吹潮| 国产成人午夜福利在线小电影| 中文字幕人成乱码中文| 亚洲最大成人网站| 亚洲精品久久久久久久久av无码| 51精品视频一区二区三区| 亚洲一区二区三区免费av| 亚洲 日本 欧美 中文幕| 国产亚洲日韩在线三区| 国产精品国三级国产av| 亚洲一区二区三区重口另类 | 亚洲人成77777在线播放网站 | 性夜影院爽黄a爽在线看香蕉| 人妖熟女少妇人妖少妇| 国产亚洲精品视频一区二区三区| 精品三级av无码一区| 最新精品亚洲成a人在线观看| 亚洲国产精品二区三区| 无套内谢孕妇毛片免费看| 国产精品国产午夜免费看福利| 青春草在线视频精品| 久久久人妻一区二区三区蜜桃d| 中文无码伦av中文字幕| 91麻豆国产香蕉久久精品| 国产精品污一区二区三区在线观看 | 熟妇人妻丰满少妇一区| 亚洲av综合av一区二区三区|