亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        全天實(shí)時(shí)跟蹤無人機(jī)目標(biāo)的多正則化相關(guān)濾波算法

        2023-11-28 18:49:20王法勝尹雙雙孫福明
        自動(dòng)化學(xué)報(bào) 2023年11期
        關(guān)鍵詞:特征

        王法勝 李 富 尹雙雙 王 星 孫福明 朱 兵

        近年來,無人機(jī) (Unmanned aerial vehicle,UAV)目標(biāo)跟蹤技術(shù)在道路規(guī)劃、交通監(jiān)控等問題中得到廣泛應(yīng)用[1].目前,有兩類目標(biāo)跟蹤算法得到研究人員的高度關(guān)注: 基于相關(guān)濾波(Correlation filter,CF)的跟蹤方法和基于深度學(xué)習(xí)(Deep learning,DL)的跟蹤方法[2].后者使用一個(gè)或多個(gè)深度網(wǎng)絡(luò)對目標(biāo)進(jìn)行跟蹤,大大提高了跟蹤的準(zhǔn)確性和魯棒性.但是這類方法需要較高的算力,導(dǎo)致其在無人機(jī)平臺(tái)上難以滿足實(shí)時(shí)跟蹤目標(biāo)的要求.而CF 跟蹤方法因具有較低的計(jì)算成本和較高的跟蹤精度,在無人機(jī)目標(biāo)跟蹤領(lǐng)域得到了廣泛的應(yīng)用[3].這類方法通過空間域中的循環(huán)移位生成訓(xùn)練樣本[4],但循環(huán)移位操作會(huì)導(dǎo)致出現(xiàn)邊界效應(yīng)問題,從而降低濾波器的判別力.為此,研究人員提出在跟蹤框架中加入余弦窗口來抑制邊界效應(yīng)[4-5],并在此基礎(chǔ)上結(jié)合其他策略來進(jìn)一步增強(qiáng)算法的判別能力.例如,具有尺度和旋轉(zhuǎn)自適應(yīng)的長時(shí)目標(biāo)跟蹤算法[6],提出將傅里葉-梅林變換與核相關(guān)濾波方法結(jié)合,以提高濾波器對尺度和旋轉(zhuǎn)參數(shù)估計(jì)的魯棒性和準(zhǔn)確性.融合顯著性與運(yùn)動(dòng)信息的相關(guān)濾波跟蹤算法[7],將目標(biāo)的像素級(jí)概率性表征模型與相關(guān)濾波算法融合,并且提出一種基于顯著性的觀測模型,提高算法面對復(fù)雜跟蹤場景時(shí)識(shí)別目標(biāo)的能力.另有研究人員提出空間正則化[5,8-10]和上下文學(xué)習(xí)[11-14]等策略提高相關(guān)濾波的性能.但這些算法均使用余弦窗口,而余弦窗口的引入對訓(xùn)練樣本造成了污染,降低了算法的跟蹤性能.

        CF 跟蹤算法中采用的手工特征主要包括灰度特征、方向梯度直方圖(Histogram of oriented gradient,HOG)和顏色名稱(Color names,CN)等.Bolme 等[15]首次提出了僅使用灰度特征的CF 跟蹤算法.后續(xù)的一些工作[4,16-17]為了學(xué)習(xí)具有多通道的濾波器,使用了灰度特征、HOG、CN 等多種特征的組合.但手工特征無法表述目標(biāo)全部的語義信息.隨著ResNet、VGG (Visual geometry group)等提取深度特征的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional neural network,CNN)在諸如圖像分類和圖像識(shí)別等具有挑戰(zhàn)性視覺任務(wù)上取得巨大成功,研究人員開始將深度特征加入到CF 跟蹤框架中[18-19],顯著提高了CF 跟蹤算法的魯棒性.但CNN 特征的計(jì)算負(fù)擔(dān)較高,嚴(yán)重影響跟蹤器的實(shí)時(shí)性.受到無人機(jī)平臺(tái)本身計(jì)算性能的限制(僅搭載CPU),現(xiàn)有的無人機(jī)目標(biāo)跟蹤算法[20-22]大都僅使用手工特征來描述目標(biāo)的外觀.此外,這些跟蹤算法僅能較好地處理光照條件良好的跟蹤場景,而在跟蹤夜間場景下的目標(biāo)時(shí)則遇到性能嚴(yán)重下降的挑戰(zhàn).

        為了解決以上問題,本文提出一種全天實(shí)時(shí)多正則化相關(guān)濾波算法(All-day and real-time multiregularized correlation filter,AMRCF)跟蹤無人機(jī)目標(biāo),即,以多正則化的相關(guān)濾波器為基礎(chǔ)框架[21],引入自適應(yīng)圖像增強(qiáng)模塊、輕量型深度網(wǎng)絡(luò)和高斯形狀掩膜.首先,引入一個(gè)自適應(yīng)圖像增強(qiáng)模塊,在不影響圖像各通道顏色比例的前提下,對獲得的圖像進(jìn)行增強(qiáng),以提高夜間目標(biāo)的跟蹤性能.其次,引入一個(gè)輕量型的深度網(wǎng)絡(luò)來提取目標(biāo)的深度特征,并與手工特征一起來表示目標(biāo)的語義信息.此外,在算法框架中嵌入高斯形狀掩膜,在抑制邊界效應(yīng)的同時(shí),有效避免訓(xùn)練樣本污染.AMRCF 與其他先進(jìn)的目標(biāo)跟蹤算法在DTB70 基準(zhǔn)數(shù)據(jù)集[23]上的總體比較如圖1 所示.

        圖1 AMRCF 與其他算法在DTB70 上的總體性能比較Fig.1 Overall performance of AMRCF compared with other algorithms on DTB70

        本文主要貢獻(xiàn)如下:

        1)以多正則化的相關(guān)濾波器為基礎(chǔ)框架,引入一個(gè)自適應(yīng)圖像增強(qiáng)模塊,自動(dòng)判別無人機(jī)目標(biāo)場景的光照條件,并在不改變圖像各通道顏色比例的前提下,根據(jù)判別結(jié)果對圖像進(jìn)行相應(yīng)的處理.

        2)引入輕量型的深度網(wǎng)絡(luò)[24]來提取目標(biāo)的深度特征,并與手工特征一起表示目標(biāo)的語義信息.該網(wǎng)絡(luò)的計(jì)算量小,使用CPU 平臺(tái)便可以進(jìn)行特征的提取,并且不會(huì)大幅降低算法的跟蹤速度.

        3)在CF 跟蹤框架中嵌入高斯形狀掩膜,建立相關(guān)濾波跟蹤算法模型,并使用交替方向乘子方法優(yōu)化求解,在抑制邊界效應(yīng)的同時(shí),減少樣本污染問題.

        4)在5 個(gè)公開的無人機(jī)基準(zhǔn)數(shù)據(jù)集DTB70[23]、UAVTrack112[25]、UAVDark135[26]、VisDrone-SOT2018[27]和UAV123[28]上進(jìn)行綜合實(shí)驗(yàn).結(jié)果表明,所提出的算法具有較高的精確度和魯棒性.本文算法代碼及結(jié)果發(fā)布于https://gitee.com/he_bing_DLMZ/amrcf.

        1 相關(guān)工作

        本節(jié)簡要介紹與本文內(nèi)容相關(guān)的跟蹤算法,包括基于相關(guān)濾波的跟蹤算法以及無人機(jī)目標(biāo)跟蹤算法.

        1.1 基于相關(guān)濾波的跟蹤算法

        基于CF 的跟蹤算法將跟蹤任務(wù)描述為嶺回歸問題,目的是訓(xùn)練濾波器來區(qū)分目標(biāo)與背景區(qū)域.首個(gè)CF 跟蹤器MOSSE[15]被提出后,Henriques 等[4,29]將核技巧(Kernel trick)引入到相關(guān)濾波公式中,并利用循環(huán)矩陣的特性將求解過程轉(zhuǎn)換到傅里葉域,簡化了濾波器優(yōu)化過程.此后,研究人員又從很多方面提出不同方法來提高CF 跟蹤器的性能,包括尺度估計(jì)[30-31]、邊界效應(yīng)抑制[5,8-10,32-33]、時(shí)間退化解決方案[34-36]、特征表示[19,37]、注意力機(jī)制[38-40]以及特征去冗余[14,41-42].

        CF 跟蹤算法通過空間域的循環(huán)移位操作來生成更多的訓(xùn)練樣本,導(dǎo)致出現(xiàn)邊界效應(yīng)問題.Danelljan 等[5]提出空間正則化相關(guān)濾波跟蹤算法(Spatially regularized discriminative correlation filter,SRDCF),該算法加入空間正則化組件,根據(jù)相關(guān)濾波器的空間位置,對濾波器系數(shù)進(jìn)行懲罰來抑制邊界效應(yīng).蒲磊等[10]結(jié)合SRDCF 與CNN,提出了基于深度空間正則化的CF 算法.該算法選取VGG網(wǎng)絡(luò)第5 層卷積特征提取目標(biāo)的空間可靠區(qū)域,將該區(qū)域信息用于對樣本進(jìn)行裁剪并引入目標(biāo)函數(shù),從而建立空間約束模型.Xu 等[35]在時(shí)空正則化相關(guān)濾波算法[34](Spatial-temporal regularized correlation filter,STRCF)的基礎(chǔ)上,通過將多特征通道與濾波器的結(jié)構(gòu)進(jìn)行關(guān)聯(lián),以在空間維度上進(jìn)行組特征選擇來解決邊界效應(yīng)問題.王科平等[43]以跟蹤目標(biāo)的鄰域信息為基礎(chǔ),引入掩膜矩陣,提取目標(biāo)的空間信息,并通過在目標(biāo)函數(shù)中構(gòu)建時(shí)空感知約束項(xiàng),強(qiáng)化相關(guān)濾波器對時(shí)空二元信息的學(xué)習(xí)能力,增強(qiáng)濾波器對干擾信息的魯棒性.

        上述方法在抑制邊界效應(yīng)上存在一個(gè)共同點(diǎn),即使用余弦窗口.余弦窗口與采樣區(qū)域相乘之后,邊界附近區(qū)域被強(qiáng)制為零,使得獲取的訓(xùn)練樣本極易受到噪聲的污染,進(jìn)而導(dǎo)致濾波器性能下降.為此,Li 等[44]提出在背景感知相關(guān)濾波算法[8](Background aware correlation filter,BACF)中用高斯掩膜替換余弦窗口以解決樣本污染問題.與使用空間域循環(huán)移位產(chǎn)生的樣本來訓(xùn)練濾波器不同,文獻(xiàn)[45]通過傳統(tǒng)的滑動(dòng)窗口對一組真實(shí)且密集的塊進(jìn)行采樣,用采樣后的樣本來訓(xùn)練濾波器,進(jìn)而從根本上抑制邊界效應(yīng).

        1.2 無人機(jī)目標(biāo)跟蹤算法

        基于CF 的跟蹤器在無人機(jī)目標(biāo)跟蹤中得到了廣泛的應(yīng)用,但平面內(nèi)外旋轉(zhuǎn)、光照不足、遮擋、形變等給無人機(jī)目標(biāo)跟蹤帶來了極大的挑戰(zhàn).為了更好地應(yīng)對這些挑戰(zhàn),研究人員進(jìn)行了大量的研究工作以改進(jìn)無人機(jī)目標(biāo)跟蹤算法.Li 等[22]提出一種自適應(yīng)時(shí)空正則化無人機(jī)跟蹤算法,通過超參數(shù)對正則化項(xiàng)進(jìn)行自動(dòng)調(diào)整來抑制邊界效應(yīng),同時(shí)利用隱藏在響應(yīng)圖中的局部和全局信息平滑時(shí)間.Fu 等[46]提出一種具有雙重正則化策略的無人機(jī)跟蹤器,通過對涉及相關(guān)運(yùn)算的濾波器直接正則化來抑制邊界效應(yīng),并利用正則化器識(shí)別目標(biāo)區(qū)域來減少背景噪聲.為了應(yīng)對無人機(jī)目標(biāo)的外觀突變,文獻(xiàn)[20]在CF跟蹤框架中嵌入自適應(yīng)混合標(biāo)簽以增強(qiáng)算法對外觀突變的抗性,并將理想標(biāo)簽與相關(guān)濾波器進(jìn)行聯(lián)合優(yōu)化來保持時(shí)間一致性.傳統(tǒng)的CF 無人機(jī)跟蹤算法沒有考慮歷史樣本信息與不同通道之間的差異性,Ye 等[21]通過規(guī)范響應(yīng)的偏差對響應(yīng)變化進(jìn)行平滑,同時(shí)通過通道的可靠性來實(shí)現(xiàn)自適應(yīng)通道權(quán)重分布,從而更好地適應(yīng)對象外觀變化,以此增強(qiáng)跟蹤器從背景中區(qū)分目標(biāo)的能力.針對目前沒有專用于夜間跟蹤的算法,Li 等[26]在目標(biāo)跟蹤框架中加入自適應(yīng)光照強(qiáng)度模塊,利用該模塊改善夜間目標(biāo)序列的質(zhì)量,以此提高算法的夜間跟蹤效果.

        2 本文算法

        本節(jié)介紹所提出的跟蹤算法AMRCF,算法的整體框架如圖2 所示.AMRCF 由三部分組成,第一部分是自適應(yīng)圖像增強(qiáng)模塊,第二部分是特征提取模塊,第三部分是嵌入高斯形狀掩膜的多正則化相關(guān)濾波(Multi-regularized correlation filter,MRCF)模塊.對于輸入的視頻序列,首先將序列的第1 幀取出做光照條件判別,并根據(jù)判別結(jié)果對后續(xù)圖像做不同的處理.隨后,在每一幀中,計(jì)算高斯形狀掩膜,并提取樣本區(qū)域中的手工特征和深度特征,將兩種特征進(jìn)行線性加權(quán).最后,將優(yōu)化的濾波器hk,通道權(quán)重分布βk與樣本特征進(jìn)行相關(guān)運(yùn)算以得到響應(yīng)圖,響應(yīng)圖中的最大值位置即為目標(biāo)位置.

        圖2 AMRCF 跟蹤算法框架圖Fig.2 Framework of the proposed AMRCF algorithm

        2.1 自適應(yīng)圖像增強(qiáng)模塊

        為了提高算法的夜間跟蹤能力,本文引入一種自適應(yīng)圖像增強(qiáng)模塊.該模塊首先使用光照強(qiáng)度表達(dá)式,將圖像復(fù)雜的光照信息轉(zhuǎn)換成一個(gè)常數(shù),并利用該常數(shù)構(gòu)建光照條件判別式.然后在像素級(jí)別上根據(jù)判別結(jié)果對圖像采取不同的處理措施,以達(dá)到到圖像增強(qiáng)的目的.

        對于一幅大小為a×b的RGB 圖像I ∈Ra×b×3,利用式(1)計(jì)算出它的光照強(qiáng)度L

        其中,L(i,j,I)表示圖像I在坐標(biāo) (i,j)處的光照強(qiáng)度,ψm(I(i,j))表示圖像I在顏色通道m(xù)的坐標(biāo) (i,j)處的光照強(qiáng)度值.具體來說,ψR(shí)(I(i,j))表示紅色通道中對應(yīng)位置的光照強(qiáng)度值,且顏色通道系數(shù)αR,αG,αB滿足αR+αG+αB=1.

        將式(1)代入式(2)中,得到圖像I的光照強(qiáng)度對數(shù)平均值

        其中,δ是一個(gè)很小的非零數(shù).至此,便完成了由復(fù)雜光照信息到簡單常數(shù)的轉(zhuǎn)換.

        文獻(xiàn)[26]針對式(2)有效性的實(shí)驗(yàn)結(jié)果表明,光照強(qiáng)度的對數(shù)平均值可以有效地表達(dá)圖像的光照強(qiáng)度信息.基于此,構(gòu)建式(3)所示的判別式

        式(3)是一個(gè)夜間場景判決器,其中τ為給定閾值,也就是說,S(I)=1 表明圖像I是一幅夜間圖像,反之則是白天圖像.

        通過以上公式,便可以判別圖像所處的光照場景,但自適應(yīng)圖像增強(qiáng)模塊的最終目的是對圖像進(jìn)行增強(qiáng).為此,采取下面的方案對圖像進(jìn)行增強(qiáng)處理.

        首先,使用L(i,j,I)和計(jì)算出式(4)所示的全局自適應(yīng)因子Lgb(i,j,I)

        其中,Lmax(I)=max(L(i,j,I)).

        然后用全局自適應(yīng)因子Lgb(i,j,I)對圖像I進(jìn)行像素級(jí)別的增強(qiáng)處理

        其中,Ie為增強(qiáng)后的圖像.

        通過式(1)~(5),實(shí)現(xiàn)對圖像的自適應(yīng)增強(qiáng)處理,具體的實(shí)驗(yàn)效果對比如圖3 所示.與黑暗場景下的原始圖像相比,經(jīng)過自適應(yīng)圖像增強(qiáng)模塊處理后,圖像的質(zhì)量得到了明顯提升,體現(xiàn)在光照強(qiáng)度變化和圖像顏色變化上,這有利于特征提取模塊提取目標(biāo)特征.

        2.2 輕量型深度網(wǎng)絡(luò)

        VGG、ResNet 等深度網(wǎng)絡(luò)大大提升了目標(biāo)跟蹤算法的性能,但大幅降低了跟蹤的實(shí)時(shí)性,難以滿足無人機(jī)目標(biāo)跟蹤需求.Wang 等[24]提出一種輕量型的深度網(wǎng)絡(luò),該網(wǎng)絡(luò)的計(jì)算量較小,在提高算法精度的同時(shí),能達(dá)到實(shí)時(shí)的跟蹤速度.

        文獻(xiàn)[24]將VGG-M 作為教師網(wǎng)絡(luò),使用知識(shí)蒸餾[47]來生成輕量型的學(xué)生網(wǎng)絡(luò)CF-VGG.教師網(wǎng)絡(luò)和學(xué)生網(wǎng)絡(luò)的具體架構(gòu)如圖4 所示.在蒸餾的過程中,使用式(6)所示的語義保真度損失Lfidelity來確保學(xué)生網(wǎng)絡(luò)能夠保持與教師網(wǎng)絡(luò)相似的特征表示能力

        圖4 教師網(wǎng)絡(luò)和學(xué)生網(wǎng)絡(luò)的架構(gòu)Fig.4 Architectures of the teacher network and the student network

        其中,t和s分別表示目標(biāo)區(qū)域和搜索區(qū)域,Ltarget,Lsearch是目標(biāo)區(qū)域損失和搜索區(qū)域損失.φ(·)表示學(xué)生網(wǎng)絡(luò)可訓(xùn)練的特征嵌入,?(·)表示教師網(wǎng)絡(luò)的固定嵌入.

        學(xué)生網(wǎng)絡(luò)的離線提取過程在主要面向目標(biāo)識(shí)別任務(wù)的ImageNet 數(shù)據(jù)集[48]上進(jìn)行.為此,文獻(xiàn)[24]提出式(7)所示的相關(guān)跟蹤損失Ltracking,將學(xué)生網(wǎng)絡(luò)的任務(wù)從目標(biāo)識(shí)別轉(zhuǎn)移到目標(biāo)跟蹤

        其中,⊙ 表示哈達(dá)瑪積(Hadamard product),F-1表示逆離散傅里葉變換,c∈{low,middle,high}表征低中高卷積層的特征表示的索引,是相應(yīng)卷積層濾波器的復(fù)共軛,表示相應(yīng)層特征嵌入的復(fù)共軛,rc,vc分別是相關(guān)響應(yīng)圖和真實(shí)值標(biāo)簽,相關(guān)跟蹤損失是兩者之間的歐氏距離.相關(guān)跟蹤損失將分類的源目標(biāo)轉(zhuǎn)換為回歸目標(biāo)進(jìn)行跟蹤,同時(shí)通過學(xué)習(xí)相似度(或模板匹配)來評(píng)估目標(biāo)對象在幀之間的微小外觀變化.

        本文將CF-VGG 引入到AMRCF 框架中來提取目標(biāo)的深度特征,與手工提取的特征一起來描述目標(biāo).具體而言,對于第k+1 幀,以上一幀k的目標(biāo)位置為中心,以自適應(yīng)的方式裁剪樣本區(qū)域,對于該區(qū)域,CF-VGG 使用stride=2 的步長進(jìn)行下采樣,并用 ReLU 函數(shù)對更有助于精確定位[18]的第3 卷積層上的CNN 特征進(jìn)行處理,以描述目標(biāo)的語義信息.

        2.3 AMRCF 算法

        2.3.1 基線算法

        MRCF 的目標(biāo)函數(shù)如式(8)所示

        其中,T 表示矩陣的轉(zhuǎn)置,y∈RN是期望響應(yīng),分別是第 k 幀的第 d 通道所對應(yīng)的矢量化特征和濾波器.?代表空間域的卷積操作,而P是用于減輕邊界效應(yīng)的二進(jìn)制矩陣.κ是預(yù)定義的系數(shù),ε1和ε2分別是響應(yīng)偏差感知正則化項(xiàng)(Response deviation-aware regularization)和通道可靠性感知正則化項(xiàng)(Channel reliability-aware regularization),表達(dá)式分別如式(9)、式 (10)所示.λ是控制響應(yīng)偏差感知正則化權(quán)重的超參數(shù),γ是預(yù)定義的常數(shù).βk,β0分別是模型訓(xùn)練過程中的通道權(quán)重分布和初始權(quán)重分布,表征兩個(gè)連續(xù)幀之間的響應(yīng)差異,其具體表達(dá)式見式(11)

        2.3.2 高斯形狀掩膜

        CF 跟蹤器通過空間域中的循環(huán)移位操作來獲取訓(xùn)練樣本,但沒有考慮到采樣區(qū)域的邊界而導(dǎo)致訓(xùn)練樣本出現(xiàn)邊界不連續(xù)性,從而引起邊界效應(yīng).為抑制邊界效應(yīng),研究人員在模型的訓(xùn)練過程中加入余弦窗口.但余弦窗口更強(qiáng)調(diào)基礎(chǔ)圖像的中心區(qū)域,與采樣區(qū)域相乘之后,邊界附近區(qū)域被強(qiáng)制為零,從而在模型訓(xùn)練過程中造成樣本污染.為此,本文將高斯形狀掩膜嵌入跟蹤器的目標(biāo)函數(shù)中,在抑制邊界效應(yīng)的同時(shí),減少訓(xùn)練樣本污染問題.高斯掩膜M的定義如下所示

        其中,p×q和H×W分別是目標(biāo)邊界框和基礎(chǔ)圖像的尺寸,(i,j)是樣本區(qū)域中的坐標(biāo)點(diǎn).υ是用來控制訓(xùn)練樣本權(quán)重衰減速度的參數(shù).

        圖5 為相關(guān)的可視化圖.圖5(a)中的紅框是基礎(chǔ)圖像區(qū)域,用于獲取訓(xùn)練樣本,綠框是目標(biāo)區(qū)域,其大小分別是H×W和p×q.訓(xùn)練樣本附帶的邊界效應(yīng)是基礎(chǔ)圖像循環(huán)移位而使樣本邊界不連續(xù)造成的,圖中紫色框所代表的樣本中包含了目標(biāo)區(qū)域及其周圍的背景區(qū)域,其內(nèi)部區(qū)域?yàn)檫B續(xù)區(qū)域,不包含圖像邊界.而黃色框所代表的樣本中則包含了圖像邊界.圖5(b)是循環(huán)樣本與余弦窗口相乘后的可視化圖,樣本的邊界效應(yīng)得到抑制,但也抑制了目標(biāo)邊界框之外的像素.黃色框中的樣本存在大量的黑色區(qū)域,使得該樣本被黑色區(qū)域污染.因此,引入余弦窗口后存在使遠(yuǎn)離目標(biāo)中心的負(fù)樣本質(zhì)量降低的風(fēng)險(xiǎn).圖5(c)是高斯掩膜的可視化圖像,從圖像中心到四周,權(quán)值呈遞減趨勢,以此突出中心樣本,并降低邊緣樣本的重要性,達(dá)到抑制邊界效應(yīng)和防止樣本污染的目的.

        圖5 邊界效應(yīng)抑制可視化圖((a)空間域循環(huán)移位產(chǎn)生的帶有邊界效應(yīng)的訓(xùn)練樣本;(b)加入余弦窗口后,帶有污染的訓(xùn)練樣本;(c)高斯形狀掩膜可視化圖,樣本的中心距離圖像中心越近,其權(quán)重越大,重要性越高,反之則越低)Fig.5 Visualization of boundary effect suppression ((a)Training samples with boundary effect generated by cyclic shifts in the spatial domain;(b)Training samples with contamination after adding cosine window;(c)Gaussian-shaped mask visualization,the closer the center of the sample is to the center of the image,the higher the weight and importance,and vice versa)

        2.3.3 AMRCF 算法的建模和優(yōu)化

        在目標(biāo)函數(shù)中嵌入高斯形狀掩膜,得到本文算法AMRCF 的目標(biāo)函數(shù),如式(13)所示

        為了最大限度地提高求解速度,應(yīng)用交替方向乘子法(Alternative direction multiplier method,ADMM),通過迭代求解以下子問題來優(yōu)化式(16).

        3)子問題β

        4)更新拉格朗日乘子

        與文獻(xiàn)[49]一致,本文分別使用式(23)和式(24)來更新拉格朗日乘子和懲罰因子

        2.3.4 模型更新

        2.3.5 跟蹤框架

        跟蹤過程中,對于每一個(gè)視頻序列,首先用式(3)來判別序列第1 幀圖像的光照條件,并根據(jù)判別結(jié)果使用自適應(yīng)圖像增強(qiáng)模塊對后續(xù)幀進(jìn)行不同的處理.隨后,對于每一幀k+1,以前一幀k中的目標(biāo)位置為中心來裁剪相應(yīng)尺度的樣本區(qū)域,以提取其手工特征和深度特征,并采用式(26)將兩種特征進(jìn)行線性求和以得到最終的目標(biāo)特征

        其中,xh和xd分別是手工特征和深度特征,而xtotal是總特征,?是平衡兩種特征的參數(shù).

        最后,將每個(gè)通道的響應(yīng)與優(yōu)化的通道權(quán)重進(jìn)行元素乘積,則最終的響應(yīng)函數(shù)Rk+1為

        3 實(shí)驗(yàn)分析

        本節(jié)采用5 個(gè)公開的無人機(jī)目標(biāo)跟蹤基準(zhǔn)DTB70、UAVTrack112、UAVDark135、VisDrone-SOT2018 和UAV123,與14 個(gè)先進(jìn)的相關(guān)濾波跟蹤算法進(jìn)行對比實(shí)驗(yàn),包括ARCF[50]、AutoTrack[22]、MRCF[21]、MSCF[20]、DRCF[46]、SRDCF[5]、STRCF[34]、Staple[51]、SAMF[52]、ECO_HC[37]、DSST[30]、fDSST[30]、KCF[4]和BACF[8].

        3.1 實(shí)驗(yàn)細(xì)節(jié)

        為公平起見,受測跟蹤算法的參數(shù)均來自官方版本,均在同一平臺(tái)進(jìn)行.

        1)實(shí)驗(yàn)平臺(tái).本文所有實(shí)驗(yàn)都在配備Intel(R)Xeon(R)E-2 224 CPU @ 3.4 GHz 16 GB 內(nèi)存的Windows10 系統(tǒng)上進(jìn)行,使用的軟件是Matlab R2018a.

        2)實(shí)驗(yàn)特征.AMRCF 采用HOG、CN、灰度特征和深度特征的組合來表示目標(biāo)對象.其他算法采用的目標(biāo)特征與原文保持一致,實(shí)驗(yàn)時(shí)未作修改.

        3)實(shí)驗(yàn)參數(shù).顏色通道強(qiáng)度系數(shù)αR,αG,αB分別取0.299、0.587、0.114,夜間場景指示器的判決閾值τ取0.148,光照強(qiáng)度對數(shù)平均值式(2)中δ取0.001.高斯掩膜中用來控制訓(xùn)練樣本權(quán)重衰減速度的參數(shù)υ=4.在目標(biāo)函數(shù)求解中,設(shè)置ADMM 的迭代次數(shù)為3,學(xué)習(xí)率是η=[0.0199,0.0199],正則化系數(shù)分別是κ=0.01,λ=0.004,γ=10,并用μ=1,μmax=100,σ=10 來更新拉格朗日乘子,用?=0.7來平衡手工特征與深度特征.

        4)評(píng)估指標(biāo).所有評(píng)估均基于一次性評(píng)估(Onepass evaluation,OPE),其包括兩個(gè)指標(biāo),即精確度和成功率[53].通過估計(jì)邊界框與真實(shí)邊界框之間的中心位置誤差(Center location error,CLE)來衡量精確度,用精確度圖(Precision plot,PP)中CLE 低于20 像素的幀的百分比對跟蹤器進(jìn)行排名.通過計(jì)算估計(jì)邊界框與真實(shí)邊界框之間的交并比(Intersection over union,IoU)來衡量成功率,并使用成功圖(Success plot,SP)的曲線下面積(Area under curve,AUC)對跟蹤器進(jìn)行排名.此外,使用幀率對算法的跟蹤速度進(jìn)行排名.

        3.2 消融實(shí)驗(yàn)

        3.2.1 跟蹤性能對比

        為驗(yàn)證AMRCF 算法中自適應(yīng)圖像增強(qiáng)模塊、輕量型深度網(wǎng)絡(luò)和高斯掩膜對本文算法性能的影響,在5 個(gè)無人機(jī)目標(biāo)跟蹤基準(zhǔn)數(shù)據(jù)集上進(jìn)行了消融實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表1 所示.

        表1 消融實(shí)驗(yàn)結(jié)果對比Table 1 Comparison of ablation experiment results

        其中,與基線算法相比,雙下劃線表示性能增強(qiáng),單下劃線表示性能減弱.Baseline 是基線算法MRCF,Baseline+Ada、Baseline+CF-VGG、Baseline+M、Baseline+Ada+CF-VGG 分別表示在MRCF 框架中加入自適應(yīng)圖像增強(qiáng)模塊、輕量型深度網(wǎng)絡(luò)、高斯掩膜、自適應(yīng)圖像增強(qiáng)模塊和輕量型深度網(wǎng)絡(luò).Baseline+Ada+CF-VGG+M 則是加了所有模塊的本文算法AMRCF.

        在由白天序列構(gòu)成的DTB70 數(shù)據(jù)集上,根據(jù)式(4)的判別結(jié)果,不進(jìn)行圖像增強(qiáng)處理,所以只添加自適應(yīng)圖像增強(qiáng)模塊的算法結(jié)果與基線算法結(jié)果持平.只添加高斯掩膜的算法結(jié)果低于基線算法結(jié)果,當(dāng)某一幀的估計(jì)邊界框發(fā)生漂移時(shí),下一幀由基礎(chǔ)圖像循環(huán)移位產(chǎn)生的訓(xùn)練樣本因不包含目標(biāo)而使高斯掩膜無效,致使跟蹤性能降低.而同時(shí)添加3 個(gè)模塊的算法達(dá)到了最好的實(shí)驗(yàn)效果.

        在由夜間序列構(gòu)成的UAVDark135 基準(zhǔn)數(shù)據(jù)集上,Baseline+Ada、Baseline+CF-VGG、Baseline+M 和Baseline+Ada+CF-VGG 算法的性能都超越了基線算法,且在只添加單個(gè)模塊的算法中,Baseline+Ada 獲得了最好的實(shí)驗(yàn)結(jié)果,與基線算法相比,在精確度和成功率上分別獲得0.9% 和0.8% 的提升.這表明,自適應(yīng)圖像增強(qiáng)模塊的引入能顯著提升算法的夜間跟蹤效果.添加3 個(gè)模塊的Baseline+Ada+CF-VGG+M 提升最大,分別提升1.7%和0.9%.

        在UAV123 數(shù)據(jù)集上,除Baseline+Ada 和Baseline+Ada+CF-VGG 外,其他改進(jìn)算法的成功率均低于基線算法.UAV123 包含動(dòng)畫游戲等虛擬視頻序列和較多快速移動(dòng)序列,本文算法對于此類序列難以獲得提升.在精確度方面,Baseline+Ada+CF-VGG 以及加入3 個(gè)模塊的算法均比基線算法的精確度高,表明深度特征與其他模塊共同作用能夠在一定程度上提高算法精確度.

        綜合上述的分析,同時(shí)添加自適應(yīng)圖像增強(qiáng)模塊、輕量型深度網(wǎng)絡(luò)和高斯形狀掩膜后,本文算法在5 個(gè)基準(zhǔn)數(shù)據(jù)集、共10 組指標(biāo)數(shù)據(jù)上,有8 組結(jié)果得到提升,而減弱的指標(biāo)數(shù)據(jù)與基線算法的對應(yīng)指標(biāo)相比,其降幅較小,從而驗(yàn)證了AMRCF 算法中各模塊的有效性.

        3.2.2 跟蹤速度對比

        為比較不同模塊對計(jì)算復(fù)雜度及跟蹤速度的影響,本節(jié)在5 個(gè)數(shù)據(jù)集上,對包含不同模塊的算法進(jìn)行幀率對比,實(shí)驗(yàn)結(jié)果如表2 所示.Ada 代表自適應(yīng)圖像增強(qiáng)模塊,它根據(jù)序列首幀的光照情況對整個(gè)序列采取不同的處理策略,對夜間序列需要采取逐像素重計(jì)算的方式來進(jìn)行增強(qiáng),因此該模塊的計(jì)算復(fù)雜度取決于圖像幀的大小.UAVDark135和UAVTrack112 數(shù)據(jù)集中均含有夜間序列,Baseline+Ada 對此類序列進(jìn)行增強(qiáng)處理,相較于基線算法,計(jì)算復(fù)雜度增加,幀率都下降了約4.6 fps.DTB70、UAV123 和VisDrone-SOT2018 不含夜間序列,自適應(yīng)圖像增強(qiáng)模塊判斷每序列首幀的光照條件,不做增強(qiáng)處理,幀率下降可忽略不計(jì).

        表2 消融實(shí)驗(yàn)幀率對比Table 2 Frame rate comparison of ablation experiment

        本文使用輕量級(jí)深度網(wǎng)絡(luò)CF-VGG 第10 層的輸出作為深度特征來描述目標(biāo)的語義信息,該層數(shù)據(jù)輸出的計(jì)算量大,耗費(fèi)時(shí)間長,對幀率影響明顯,在5 個(gè)數(shù)據(jù)集上的平均幀率下降了約5.9 fps.高斯掩膜的計(jì)算復(fù)雜度取決于目標(biāo)邊界框和基礎(chǔ)圖像的尺寸,嵌入跟蹤框架后,算法整體復(fù)雜度略有上升,在5 個(gè)數(shù)據(jù)集上的平均幀率下降了約1.6 fps.引入3 個(gè)模塊的AMRCF 算法計(jì)算復(fù)雜度最高,在UAVDark135 和UAVTrack112 上分別為14.5929 fps和28.573 fps,平均幀率約為25 fps,降低約8.5 fps,但整體上仍然可滿足實(shí)時(shí)性的要求.需要強(qiáng)調(diào)的是,本文實(shí)驗(yàn)均是在僅配備有單CPU 的計(jì)算機(jī)上進(jìn)行,以最大程度模擬無人機(jī)運(yùn)行環(huán)境.

        3.2.3 不同深度網(wǎng)絡(luò)的對比

        本節(jié)將CF-VGG 與其教師網(wǎng)絡(luò)VGG 進(jìn)行對比消融實(shí)驗(yàn).在本文算法框架中,將CF-VGG 替換成其教師網(wǎng)絡(luò),得到Baseline+Ada+M+VGG,實(shí)驗(yàn)結(jié)果如表3 所示.由表3 可知,與基線算法相比,采用VGG 深度網(wǎng)絡(luò)的特征能夠顯著提高跟蹤的精確度和成功率,但算法幀率卻急劇下降,3 個(gè)數(shù)據(jù)集分別下降約20.7 fps、16.7 fps 和21.8 fps.這表明,VGG 網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜,特征提取過程耗費(fèi)大量時(shí)間.而本文算法Baseline+Ada+M+CF-VGG 在3 個(gè)數(shù)據(jù)集上的精確度和成功率均高于采用VGG 網(wǎng)絡(luò)的算法,且?guī)史矫娲蟠蟪^了采用VGG 網(wǎng)絡(luò)的算法.該結(jié)果充分說明,相較于教師網(wǎng)絡(luò)VGG,使用CF-VGG 網(wǎng)絡(luò)能夠大幅提高跟蹤幀率,而其在精確度和成功率方面的提升則歸因于在生成CFVGG 過程中采用了相關(guān)跟蹤損失.

        表3 CF-VGG 與教師網(wǎng)絡(luò)VGG 性能對比Table 3 Comparison of performance between CF-VGG and teacher network VGG

        3.3 定量分析

        消融實(shí)驗(yàn)證明了AMRCF 算法中各模塊的有效性,本節(jié)為得到更加準(zhǔn)確的實(shí)驗(yàn)結(jié)果,在5 個(gè)無人機(jī)目標(biāo)跟蹤數(shù)據(jù)集上,與14 種CF 跟蹤算法進(jìn)行實(shí)驗(yàn)對比,結(jié)果如圖6 所示.

        圖6 AMRCF 與其他算法在5 個(gè)無人機(jī)目標(biāo)跟蹤基準(zhǔn)上的實(shí)驗(yàn)結(jié)果Fig.6 Experimental results of AMRCF and other algorithms on five UAV target tracking benchmarks

        3.3.1 整體性能評(píng)估

        1)白天跟蹤性能.所使用的5 個(gè)基準(zhǔn)數(shù)據(jù)集中,DTB70、UAV123 和VisDrone-SOT2018 均由白天序列構(gòu)成,使用這3 個(gè)數(shù)據(jù)集進(jìn)行白天跟蹤性能的評(píng)估.在DTB70 上,AMRCF 以72.6% 的精確度和48.8% 的成功率位居第1,兩項(xiàng)指標(biāo)均比排名第2 的AutoTrack 高1.0%,而且比基線算法MRCF分別高6.0% 和2.2%.在UAV123 上,本文算法雖未獲得最好的性能,但以69.4% 的精確度(比MRCF 高0.1%)和47.8% 的成功率位于前列.在Vis-Drone-SOT2018 上,本文算法分別以81.6% 的精確度位居第1 和59.8% 的成功率位居第2,在成功率上比MRCF 低0.2%,但精確度要高0.4%.

        2)夜間跟蹤性能.UAVDark135 是包含135 個(gè)夜間序列的無人機(jī)目標(biāo)跟蹤數(shù)據(jù)集.為了驗(yàn)證AMRCF 的夜間跟蹤性能,本文在該基準(zhǔn)數(shù)據(jù)集上進(jìn)行了相關(guān)實(shí)驗(yàn).實(shí)驗(yàn)結(jié)果表明,本文算法能對夜間目標(biāo)進(jìn)行精確跟蹤,并以61.0% 的精確度位居第1,以46.4%的成功率位居第2.在成功率上,僅比排名第1 的SRDCF (46.5%)低0.1%,但在精確度上,比排名第2 的MSCF 高1.0%.且本文算法在兩組指標(biāo)上分別比基線算法高1.7% 和0.9%.

        3)全天跟蹤性能.本文提出的跟蹤器能夠進(jìn)行全天目標(biāo)跟蹤,為此,在同時(shí)含有白天序列和夜間序列的UAVTrack112 上進(jìn)行驗(yàn)證.由圖6(c)可知,AMRCF 分別以71.2% 的精確度和48.4% 的成功率位居第1.在兩項(xiàng)指標(biāo)上,比排名第2 的跟蹤器分別高1.7% 和1.0%,且分別比基線算法高3.1% 和1.7%.而在UAV123 數(shù)據(jù)集上排名第1 的ECO_HC,在UAVTrack112 的精確度圖上僅排名第4,比AMRCF 低2.6%.

        4)跟蹤速度.對無人機(jī)目標(biāo)跟蹤來說,幀率是至關(guān)重要的評(píng)價(jià)指標(biāo),它表征算法每秒內(nèi)跟蹤的序列幀數(shù).各算法在5 個(gè)無人機(jī)基準(zhǔn)數(shù)據(jù)集上的幀率如表4 所示.其中,粗體、雙下劃線、單下劃線分別表示排名前3 的算法.在夜間數(shù)據(jù)集UAVDark135上,AMRCF 對每幀圖像都要進(jìn)行光照增強(qiáng)處理,會(huì)耗費(fèi)大量時(shí)間,故幀率較低,約為14 fps.在其他4 個(gè)基準(zhǔn)數(shù)據(jù)集上的幀率都超過25 fps,并且在5個(gè)數(shù)據(jù)集上達(dá)到24.6 fps 的平均幀率,能夠滿足實(shí)時(shí)跟蹤的需求.

        表4 各跟蹤算法在無人機(jī)目標(biāo)跟蹤基準(zhǔn)上的幀率比較Table 4 Comparison of frame rates of various tracking algorithms on UAV target tracking benchmarks

        3.3.2 與無人機(jī)目標(biāo)跟蹤算法的比較

        AMRCF 是面向無人機(jī)目標(biāo)的跟蹤算法,為此,將AMRCF 與5 個(gè)先進(jìn)的無人機(jī)目標(biāo)跟蹤算法在5 個(gè)基準(zhǔn)數(shù)據(jù)集上的性能進(jìn)行比較,結(jié)果如表5 所示.其中,粗體、雙下劃線、單下劃線分別表示排名前3 的算法.

        表5 AMRCF 與無人機(jī)目標(biāo)跟蹤算法的性能比較Table 5 Performance comparison of AMRCF and UAV target tracking algorithms

        AMRCF 在5 個(gè)基準(zhǔn)數(shù)據(jù)集上,有9 組指標(biāo)排在前3 名,且有7 組指標(biāo)數(shù)據(jù)是第1 名,與排名第2 的算法相比,領(lǐng)先0.4%~1.7%.而基線算法MRCF 有兩組指標(biāo)排在第1,與排名第2 的算法相比,僅有0.2% 的提升.在UAV123 上,AMRCF 以69.4% 的精確度排第2,比排名第1 的DRCF低0.6%.在VisDrone-SOT2018 上,AMRCF 以59.8% 的成功率排第2,僅比基線算法MRCF 低0.2%,比排名第3 的ARCF 高1.4%.這表明AMRCF 在無人機(jī)目標(biāo)跟蹤中的出色性能.

        3.3.3 針對挑戰(zhàn)屬性的評(píng)估

        為評(píng)估AMRCF 在不同挑戰(zhàn)屬性上的表現(xiàn),本節(jié)將跟蹤算法在DTB70 數(shù)據(jù)集不同挑戰(zhàn)屬性上的性能進(jìn)行了匯總,如表6 所示.其中,粗體、雙下劃線、單下劃線分別表示排名前3 的算法.SV、ARV、OCC、DEF、FCM、IR、OR、OV、BC 和SOA 代表的挑戰(zhàn)屬性分別是尺度變化、縱橫比變化、遮擋、形變、相機(jī)快速移動(dòng)、平面內(nèi)旋轉(zhuǎn)、平面外旋轉(zhuǎn)、移出視野、背景雜波和相似物體.

        表6 各算法在DTB70 基準(zhǔn)不同屬性上的性能比較Table 6 Performance comparison of each algorithm on different attributes of the DTB70 benchmark

        本文算法在SV、ARV、DEF、IR、OR、BC 上獲得最好的性能,在精確度上分別比排名第2 的跟蹤器高2.8%、5.3%、7.8%、1.2%、7.3%、0.5%,在成功率上高2.9%、3.7%、4.0%、1.2%、2.6%、0.1%.AMRCF 在OV 上位居第2 名,在OCC、FCM 和SOA 屬性上沒有排進(jìn)前3 名,但在評(píng)測算法中依然名列前茅.由此表明,本文算法能夠很好地應(yīng)對無人機(jī)目標(biāo)跟蹤中的各種挑戰(zhàn).

        3.4 定性分析

        3.4.1 跟蹤成功案例分析

        為更加直觀地展示AMRCF 相對于其他無人機(jī)目標(biāo)跟蹤算法的優(yōu)勢,本節(jié)對以上6 個(gè)無人機(jī)算法在具有平面內(nèi)外旋轉(zhuǎn)、遮擋、光照不足、形變等特定場景下的跟蹤結(jié)果進(jìn)行了可視化,可視化結(jié)果如圖7 所示(完整的視頻在該站點(diǎn)中可以訪問https://gitee.com/he_bing_DLMZ/amrcf/tree/master/A MRCF/results/vis-video).

        圖7 6 個(gè)無人機(jī)目標(biāo)跟蹤算法的跟蹤結(jié)果在部分序列上的可視化對比Fig.7 Visual comparison of tracking results of six UAV tracking algorithms on selected sequences

        1)平面內(nèi)外旋轉(zhuǎn).在視頻序列DTB70_BMX5中,相對于拍攝平面,序列中的目標(biāo)做極限動(dòng)作時(shí),在第47、77、158 和200 幀圖像中發(fā)生平面內(nèi)外旋轉(zhuǎn).其他幾個(gè)算法在前幾幀對目標(biāo)進(jìn)行了跟蹤,但在后續(xù)幀中跟蹤框發(fā)生漂移而丟失目標(biāo).AMRCF 算法能夠持續(xù)捕獲目標(biāo),未發(fā)生目標(biāo)丟失情況.在視頻序列UAV123_wakeboard5 中,目標(biāo)在第343、581 和643 幀中發(fā)生旋轉(zhuǎn),AMRCF 算法對目標(biāo)進(jìn)行了精準(zhǔn)的定位.這表明,通過引入高斯形狀掩膜并用CF-VGG 提取目標(biāo)的深度特征,有效解決了因目標(biāo)旋轉(zhuǎn)而導(dǎo)致跟蹤失敗的問題.

        2)遮擋.遮擋是無人機(jī)目標(biāo)跟蹤中占重要比例的挑戰(zhàn)因素,在視頻序列DTB70_BMX5 和UAV-123_wakeboard5 中都存在遮擋現(xiàn)象.在DTB70_BMX5 的第96 幀,目標(biāo)被部分遮擋時(shí),其他算法都丟失了目標(biāo),而AMRCF 和DRCF 成功捕獲目標(biāo).不同的是,本文算法對目標(biāo)進(jìn)行了精準(zhǔn)的定位,而DRCF 邊界框發(fā)生漂移,導(dǎo)致僅捕獲到部分目標(biāo).在第105 幀,目標(biāo)發(fā)生完全遮擋后重現(xiàn)時(shí),DRCF徹底失去目標(biāo),而本文算法對目標(biāo)進(jìn)行了精準(zhǔn)捕獲.在視頻序列UAV123_wakeboard5 的第365 幀,目標(biāo)被海浪遮擋,在第373 幀再次出現(xiàn)時(shí),僅本文算法、AutoTrack 和DRCF 定位到了目標(biāo).引入高斯形狀掩膜來抑制邊界效應(yīng)和防止樣本污染,使得本文算法的定位精度要高于AutoTrack 和DRCF.

        3)光照不足.UAVDark135_bike2 和UAVTrack112_dark car1-n 是夜間拍攝的,光照不足是它們共有的挑戰(zhàn).在視頻序列UAVDark135_bike2的前30 幀,6 個(gè)算法都對目標(biāo)進(jìn)行了精準(zhǔn)定位,但在第30 幀后,其他算法無法應(yīng)對黑暗場景而紛紛丟失目標(biāo).在第88 幀后,除AMRCF 外,其他5 個(gè)算法徹底丟失目標(biāo).在視頻序列UAVTrack112_dark car1-n 的前197 幀,測試算法都定位到目標(biāo),但AutoTrack 發(fā)生小幅度的漂移而未精準(zhǔn)定位.在第227 幀到259 幀,目標(biāo)從相對較亮的區(qū)域移至黑暗區(qū)域時(shí),AutoTrack、ARCF 和DRCF 丟失目標(biāo),AMRCF 引入的自適應(yīng)圖像增強(qiáng)模塊,可以在不改變圖像各通道顏色比例的前提下對圖像進(jìn)行增強(qiáng)處理,而未丟失目標(biāo),且對目標(biāo)進(jìn)行精準(zhǔn)定位.

        4)形變.在視頻序列UAV123_wakeboard5 的跟蹤過程中,目標(biāo)要通過不同的動(dòng)作來維持自身平衡而發(fā)生大幅度形變,致使目標(biāo)特征變化較大.在第373 幀和432 幀,隨著目標(biāo)形態(tài)的變化,MRCF、MSCF、ARCF 算法相繼失去對目標(biāo)的跟蹤能力,且AutoTrack 在目標(biāo)尺度估計(jì)上出現(xiàn)較大偏差.而本文算法使用CF-VGG 來提取深度特征,并結(jié)合CN等手工特征來描述目標(biāo)的語義信息,實(shí)現(xiàn)了對目標(biāo)的魯棒跟蹤.

        通過以上分析和可視化結(jié)果可以看出,本文將MRCF 與自適應(yīng)圖像增強(qiáng)模塊、CF-VGG 和高斯形狀掩膜結(jié)合而構(gòu)建的AMRCF,可以輕松應(yīng)對諸如平面內(nèi)外旋轉(zhuǎn)、遮擋、光照不足、形變等挑戰(zhàn).

        3.4.2 跟蹤失敗案例分析

        本文所提出的AMRCF 跟蹤器在5 個(gè)無人機(jī)數(shù)據(jù)集上的總體跟蹤效果優(yōu)于當(dāng)前其他先進(jìn)的無人機(jī)目標(biāo)跟蹤算法,但在無人機(jī)目標(biāo)的跟蹤過程中仍存在局限性.如圖8 所示,當(dāng)場景中出現(xiàn)完全遮擋、相似物體、背景雜波以及低分辨率等因素時(shí),會(huì)導(dǎo)致AMRCF 目標(biāo)框發(fā)生漂移甚至丟失目標(biāo).

        圖8 失敗案例的可視化對比Fig.8 Visual comparison of failure cases

        如圖8 第1 行所示,在目標(biāo)車輛未被遮擋前,AMRCF 能夠?qū)δ繕?biāo)進(jìn)行精確跟蹤,未產(chǎn)生漂移或目標(biāo)丟失現(xiàn)象.在第818 幀,車輛被樹木遮擋致使提取的目標(biāo)特征減少而產(chǎn)生漂移;在第920 幀,目標(biāo)被完全遮擋,提取的深度特征及手工特征中不包含目標(biāo)信息,目標(biāo)丟失;在第1 040 幀,目標(biāo)在長期完全遮擋重現(xiàn)后,AMRCF 算法缺少重檢測策略而未能重新捕獲目標(biāo).在第2 行中,目標(biāo)的快速移動(dòng)使其與拍攝設(shè)備之間的距離逐漸增大,在視野中的分辨率變小并受到背景雜波的干擾,提取的特征中目標(biāo)特征占據(jù)極小的比重而無法繼續(xù)定位并跟蹤目標(biāo).

        圖8 第3 行是AMRCF 算法跟蹤相似物體的失敗情形.跟蹤前期,跟蹤目標(biāo)未與相似目標(biāo)產(chǎn)生重疊,目標(biāo)框始終定位于跟蹤目標(biāo)而未產(chǎn)生漂移;跟蹤到第18 幀時(shí),跟蹤目標(biāo)與其他目標(biāo)重疊,目標(biāo)框發(fā)生漂移;第232 幀中,兩目標(biāo)之間不再重疊,跟蹤框未重新找回目標(biāo),定位于錯(cuò)誤目標(biāo)直至跟蹤結(jié)束.由于AMRCF 沒有重檢測模塊,無法檢測到目標(biāo)何時(shí)消失及重現(xiàn)而導(dǎo)致完全遮擋挑戰(zhàn)下的跟蹤失敗,未來可以通過為算法添加重檢測機(jī)制來進(jìn)一步提高其性能.

        4 結(jié)論

        本文提出一種全天實(shí)時(shí)跟蹤無人機(jī)目標(biāo)的多正則化相關(guān)濾波算法AMRCF,在不改變圖像各通道顏色比例的前提下,使用自適應(yīng)圖像增強(qiáng)模塊對夜間圖像進(jìn)行光照增強(qiáng)處理,以應(yīng)對夜間無人機(jī)目標(biāo)跟蹤的挑戰(zhàn);同時(shí),在保證實(shí)時(shí)性的前提下,引入一個(gè)輕量型深度網(wǎng)絡(luò)CF-VGG 來提取目標(biāo)的深度特征,聯(lián)合手工特征一起描述目標(biāo)的語義信息,提高跟蹤器的魯棒性;通過嵌入高斯形狀掩膜,在抑制邊界效應(yīng)的同時(shí),解決訓(xùn)練樣本污染問題,提高濾波器的訓(xùn)練質(zhì)量.在5 個(gè)公開的無人機(jī)基準(zhǔn)數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,與先進(jìn)的無人機(jī)目標(biāo)跟蹤算法相比,AMRCF 算法表現(xiàn)出較強(qiáng)的競爭力,并且具有較好的實(shí)時(shí)性.在下一步工作中,將考慮在本文算法框架中加入重檢測模塊,進(jìn)一步提升算法的性能.

        猜你喜歡
        特征
        抓住特征巧觀察
        離散型隨機(jī)變量的分布列與數(shù)字特征
        具有兩個(gè)P’維非線性不可約特征標(biāo)的非可解群
        月震特征及與地震的對比
        如何表達(dá)“特征”
        被k(2≤k≤16)整除的正整數(shù)的特征
        不忠誠的四個(gè)特征
        詈語的文化蘊(yùn)含與現(xiàn)代特征
        新聞傳播(2018年11期)2018-08-29 08:15:24
        抓住特征巧觀察
        基于特征篩選的模型選擇
        久久永久免费视频| 手机在线看片| 欧美狠狠入鲁的视频777色| 亚洲精品无码久久久久sm| 久久婷婷综合色拍亚洲| 91精品啪在线观看国产色| 久久久精品国产性黑人| yw尤物av无码国产在线观看| 久久久久亚洲av无码网站| 性无码国产一区在线观看| 精品老熟女一区二区三区在线| 欧美日韩国产高清| 亚洲一区二区三区自拍麻豆| 丰满女人猛烈进入视频免费网站 | 亚洲国产精品激情综合色婷婷 | 无码一级视频在线| 在线视频亚洲一区二区三区| 国产一区二区视频免费在| 欧美性受xxxx白人性爽| 婷婷丁香91| 尤物成av人片在线观看| 久久精品中文少妇内射| 性生交大全免费看| 亚洲成a人片在线播放观看国产| 亚洲无人区一码二码国产内射 | 老肥熟女老女人野外免费区 | 国产白色视频在线观看| 日本高清视频永久网站www| 日韩欧美亚洲综合久久影院d3 | 精品人妻大屁股白浆无码| 一本一本久久a久久精品综合麻豆| 亚洲精品乱码久久久久99| 亚洲自拍偷拍一区二区三区| 最近中文字幕免费完整版| 五月天久久国产你懂的| 天堂av中文在线官网| 亚洲人成人无码www| 人妻影音先锋啪啪av资源| av无码特黄一级| 成人久久久精品乱码一区二区三区| 九九热线有精品视频86|