亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于多特征融合的天基面目標(biāo)長時(shí)跟蹤算法

        2021-09-18 06:19:14丁與非何紅艷曹世翔王鈺
        航天返回與遙感 2021年4期
        關(guān)鍵詞:特征

        丁與非 何紅艷 曹世翔 王鈺

        (北京空間機(jī)電研究所,北京 100094)

        0 引言

        高分辨率視頻衛(wèi)星作為一種新興的對地觀測系統(tǒng)[1],利用時(shí)間敏捷性的特點(diǎn),對某一區(qū)域采用“凝視”[2]的方式進(jìn)行連續(xù)觀察,從而實(shí)現(xiàn)對目標(biāo)持續(xù)的視頻跟蹤,獲得傳統(tǒng)靜態(tài)遙感圖像難以獲取的重要信息,在地區(qū)實(shí)時(shí)偵察、空間目標(biāo)跟蹤、民用交通監(jiān)控[3]等領(lǐng)域有著廣闊的應(yīng)用前景[4]。自2007年以來,國內(nèi)外已經(jīng)發(fā)射了數(shù)顆光學(xué)視頻衛(wèi)星,其中具有代表性的包括美國 SKYBOX公司發(fā)射的 SkySat-1[5]與SkySat-2衛(wèi)星、我國發(fā)射的“天拓二號(hào)”與“吉林一號(hào)”衛(wèi)星,均可獲取到25幀/s以上m級分辨率的天基視頻,為天基成像領(lǐng)域感知?jiǎng)幽繕?biāo)奠定了基礎(chǔ)。

        面目標(biāo)跟蹤作為計(jì)算機(jī)視覺研究中最重要、最具挑戰(zhàn)性的課題之一,一直在視頻監(jiān)控、人機(jī)交互、虛擬現(xiàn)實(shí)、自主導(dǎo)航和機(jī)器人視覺等領(lǐng)域扮演著重要的角色[6]。目前,主流的面目標(biāo)跟蹤方法包括相關(guān)濾波類方法與深度學(xué)習(xí)類方法[7]。相關(guān)濾波類方法運(yùn)用互相關(guān)操作等同于傅里葉域中元素點(diǎn)乘的原理,大幅降低了復(fù)雜外觀模型帶來的計(jì)算成本,典型算法包括CSK[8]、KCF[9]、CN[10]等,此類算法能夠在保證一定跟蹤精度的情況下,實(shí)時(shí)幀率達(dá)到100幀/s以上。而深度學(xué)習(xí)類方法則通過對大量數(shù)據(jù)訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)來獲得有效的模型,從而大幅提升跟蹤精度,獲得近六年官方 VOT目標(biāo)跟蹤競賽冠軍的算法均是以此為基礎(chǔ)[11-12]。作為面目標(biāo)跟蹤的重要組成部分,天基面目標(biāo)跟蹤的需求日益增加,因此視頻衛(wèi)星數(shù)據(jù)處理技術(shù)具有重要的研究價(jià)值[13]。中科院[14]、國防科大[15-16]、武漢大學(xué)[17]等國內(nèi)高校與研究機(jī)構(gòu)均在天基視頻遙感面目標(biāo)跟蹤方面開展了深入的研究,其中效果較好的方法主要有兩種,即以相關(guān)濾波類方法為基礎(chǔ)進(jìn)行特征改進(jìn)和引入多幀差分法。但到目前為止,沒有一種算法可以成功處理天基視頻面目標(biāo)跟蹤的所有場景[18-19]。

        從硬件方面來說,空間相機(jī)處理資源有限,且后背通常沒有附加更多的處理部件,造成基礎(chǔ)成像品質(zhì)較差。而目標(biāo)圖像跟蹤性能在很大程度上取決于探測器成像能力以及基礎(chǔ)圖像的預(yù)處理能力,這兩個(gè)因素將直接影響對目標(biāo)的出現(xiàn)、方位和大小的判讀。從圖像處理方面來說,衛(wèi)星視頻中的運(yùn)動(dòng)對象主要包括汽車、艦船和飛機(jī),這些目標(biāo)幾乎都是由少量亮度相近的像素點(diǎn)組成,內(nèi)部幾乎無紋理和特征可以提取,難以進(jìn)行特征描述與關(guān)聯(lián),而天基成像條件(如側(cè)擺成像、薄云薄霧、陽光反射等)更加劇了處理難度。因此,現(xiàn)有跟蹤算法不具備相應(yīng)的適應(yīng)能力,衛(wèi)星視頻跟蹤面臨著更大的挑戰(zhàn)。

        本文從視頻動(dòng)目標(biāo)觀測的實(shí)際應(yīng)用出發(fā),針對天基成像的系統(tǒng)特性及波段的局限性,以核化相關(guān)濾波原理為基礎(chǔ),提出一種基于多特征融合的長時(shí)面目標(biāo)跟蹤方案,依據(jù)試驗(yàn)驗(yàn)證探究出適合遙感視頻數(shù)據(jù)的特征,并引入由跟蹤器、學(xué)習(xí)器和檢測器組成的長時(shí)相關(guān)跟蹤框架(Long-term Correlation Tracking,LCT[20]),從而實(shí)現(xiàn)高精度穩(wěn)健跟蹤。在高分辨率成像技術(shù)迅速發(fā)展的趨勢下,進(jìn)一步拓展天基面目標(biāo)跟蹤領(lǐng)域,為后續(xù)天基視頻遙感器提供服務(wù)。

        1 天基視頻遙感面目標(biāo)跟蹤方案

        為不同的相關(guān)跟蹤器選擇合適的特征,并進(jìn)行多特征融合。同時(shí),將三個(gè)具有不同功能的相關(guān)濾波器和一個(gè)在線學(xué)習(xí)分類器作為長時(shí)框架的組件,實(shí)現(xiàn)跟蹤、學(xué)習(xí)、再檢測的長時(shí)穩(wěn)定跟蹤,從而形成跟蹤時(shí)間越長、目標(biāo)特征掌握越全面的信息閉環(huán)。本節(jié)將從相關(guān)濾波原理出發(fā),對上述方案依次進(jìn)行介紹與分析。

        1.1 核化相關(guān)濾波跟蹤算法基本原理

        相關(guān)濾波跟蹤的核心思想是把“相關(guān)”作為衡量兩個(gè)信號(hào)相似值的度量,信號(hào)越相似,其相關(guān)值就越高。在人工給定初始幀目標(biāo)方位后,通過訓(xùn)練一個(gè)濾波模板把它作用在跟蹤目標(biāo)上時(shí),得到的響應(yīng)最大值作為目標(biāo)位置。

        假設(shè)一維圖像數(shù)據(jù)x=[x1,x2,… ,xn],xi為每一個(gè)圖像像素。對其進(jìn)行一次循環(huán)位移操作后的視覺數(shù)據(jù)為dx,1=[xn,x1,x2, … ,xn-1],所有循環(huán)位移的視覺數(shù)據(jù){dx,u|u=0,1,2,… ,n-1}連接成樣本矩陣X,即圖像數(shù)據(jù)x的循環(huán)矩陣:

        根據(jù)離散傅里葉變換(DFT)可使所有循環(huán)矩陣對角化的性質(zhì),樣本矩陣X可表示為

        式中F為一個(gè)不依賴于x的離散傅里葉矩陣;FH為F的Hermite矩陣形式;?x表示生成向量的離散傅里葉變換。

        相關(guān)濾波器的核心是訓(xùn)練線性分類器。由于線性回歸具有一個(gè)簡單的封閉解,因此可以實(shí)現(xiàn)諸如支持向量機(jī)等更為復(fù)雜的方法的性能,同時(shí)保證計(jì)算成本較低。而循環(huán)矩陣的引入可以簡化線性回歸的求解過程,也進(jìn)一步降低了計(jì)算成本,則訓(xùn)練分類器w的目標(biāo)函數(shù)可由最小二乘與正則項(xiàng)組成:

        式中w為線性回歸封閉解 (XHX+λI)-1XHy;λ為控制過擬合的正則化參數(shù);yi為回歸目標(biāo),y表示由所有回歸目標(biāo)構(gòu)成的集合。

        為了能夠進(jìn)一步提升相關(guān)濾波類方法的性能而使用非線性回歸函數(shù),需對濾波器加入內(nèi)核技巧(kernel-trick)。因此,在非線性回歸的情況下,通過引入核函數(shù)使用更強(qiáng)大的分類器,可以極大的增強(qiáng)區(qū)分目標(biāo)和背景的能力。對于最常用的內(nèi)核函數(shù),循環(huán)矩陣定理也適用。引入在傅里葉域中學(xué)習(xí)的對偶空間系數(shù)α?,

        在本文中采用高斯核作為內(nèi)核,互相關(guān)公式如下:

        式中x′為任意一個(gè)與x不同的同維數(shù)據(jù);κ(x,x′)為x與x′之間歐式距離的單調(diào)函數(shù);是x的共軛在傅里葉域的形式;為x′的傅里葉域形式;F-1為離散傅里葉逆變換;σ控制高斯核函數(shù)的局部作用范圍;⊙為兩矩陣對應(yīng)元素相乘的運(yùn)算。

        相比傳統(tǒng)的跟蹤方法,該算法的核心計(jì)算量為元素點(diǎn)積和離散傅里葉變換,這大大降低了計(jì)算成本。訓(xùn)練樣本標(biāo)簽y是一個(gè)高斯型,它從中心目標(biāo)值1平滑衰減到其他偏移為0的值。因?yàn)?代表負(fù)樣本,所以需要擴(kuò)大目標(biāo)搜索框來包含負(fù)樣本,從而通過循環(huán)矩陣訓(xùn)練分類器以獲得更精確的擬合模型。同時(shí),循環(huán)矩陣也可以應(yīng)用于相關(guān)濾波跟蹤的檢測,以加快整個(gè)跟蹤過程。在下一幀中,以相同圖像塊z作為基樣本計(jì)算此幀在傅里葉域中的響應(yīng),即預(yù)估目標(biāo)的位置的響應(yīng)圖f?(z),

        最終,采用離散傅里葉逆變換,將轉(zhuǎn)換到空間域,其中最大響應(yīng)峰值作為被跟蹤目標(biāo)的位置。

        1.2 特征選取與融合

        對于天基應(yīng)用領(lǐng)域來說,特征描述子是影響算法精度的主要因素之一。針對薄云薄霧、目標(biāo)缺乏紋理特征、弱對比等因素,同時(shí)為保證算法具有有效表達(dá)特性、較強(qiáng)魯棒性和較快計(jì)算速度,本文采用梯度直方圖和顏色名稱特征,對多個(gè)通道進(jìn)行自適應(yīng)融合以獲取算法的增強(qiáng)描述子。目標(biāo)的亮度、形狀、顏色、結(jié)構(gòu)等信息在圖像中可以表現(xiàn)出來,使得所設(shè)計(jì)的算法具有在雜亂背景下區(qū)分艦船、車輛等目標(biāo)的能力。

        方向梯度直方圖特征[21](Histogram of Oriented Gradient,HOG)是一種在計(jì)算機(jī)視覺和圖像處理中用來進(jìn)行物體檢測的特征描述子。在一幅圖像中,梯度或邊緣的方向密度分布能夠很好地描述局部目標(biāo)的表象和形狀,這就是 HOG特征的內(nèi)在原理。由于柔性目標(biāo)具有嚴(yán)重的非剛性,且其顏色與紋理變化多端,顏色紋理特征和形狀模板的匹配很難有效描述,HOG特征則能夠有效解決這一問題。HOG特征的生成過程見圖1。

        圖1 HOG特征生成過程Fig.1 HOG feature generation process

        為了將高維特征融入到相關(guān)濾波框架中,根據(jù)HOG特征4×9矩陣的結(jié)構(gòu),使用稀疏表示和特征矩陣的點(diǎn)積處理,并針對原圖方向的敏感和不敏感兩種情況進(jìn)行像素級特征映射、歸一化與截?cái)?、投影并點(diǎn)積處理,最終獲得31維的fHOG特征[22]。這樣,在實(shí)現(xiàn)模型參數(shù)更少、檢測速度更快的同時(shí),還能保證算法的良好性能。

        顏色名稱[23]是一種使用了 11個(gè)基本顏色術(shù)語的模板類特征,具體顏色如圖2所示。為了獲得具有顏色名稱的真實(shí)世界圖像的大數(shù)據(jù)集,研究人員對11種顏色名稱中的每一種都使用谷歌圖像檢索了250幅圖像,這些圖像包含了查詢顏色名稱的各種各樣的外觀。谷歌圖像訓(xùn)練集種類繁多,能夠滿足顏色命名方法應(yīng)用到不同物理設(shè)置下拍攝的未經(jīng)校準(zhǔn)圖像的要求,因此實(shí)現(xiàn)了學(xué)習(xí)真實(shí)圖像顏色名稱的目標(biāo)。

        圖2 從谷歌圖像中學(xué)習(xí)的顏色原型Fig.2 Color prototypes learned from Google images

        一般情況下,天基視頻的空間分辨率較低時(shí),目標(biāo)尺寸往往較小,特征不明顯,背景通常也模糊雜亂,許多適合在自然場景中跟蹤目標(biāo)的特征很快就會(huì)在衛(wèi)星視頻中失效,因此,保證跟蹤精度的最有效辦法是選擇適合于天基成像特性的特征描述符。本文選擇梯度直方圖和顏色名稱特征作為天基視頻面目標(biāo)的特征表述,從而通過多特征融合來增強(qiáng)特征的表述能力。

        本算法的特征向量是多維的,因此特征融合需對方程(5)中單通道版本進(jìn)行擴(kuò)展。假設(shè)X是連接C個(gè)通道的單個(gè)特征向量(HOG特征有31個(gè)通道,CN特征有10個(gè)通道),則X=[x1,x2,… ,xC],其中C為41維。研究中所有內(nèi)核都是基于點(diǎn)積或參數(shù)的范數(shù),所以可以直接對每個(gè)通道的單個(gè)點(diǎn)積進(jìn)行求和計(jì)算。現(xiàn)使用離散傅里葉變換,對傅里葉域中每個(gè)通道的結(jié)果求和,獲得方程(5)的多通道版本:

        1.3 長時(shí)相關(guān)跟蹤框架

        本文采用長時(shí)相關(guān)跟蹤策略來解決天基視頻目標(biāo)跟蹤容易丟失的問題,該策略框架整體一共包含三個(gè)濾波器(位移濾波器 AT、尺度濾波器AS、長期濾波器 AL)和一個(gè)在線學(xué)習(xí)分類器(SVM),將任務(wù)分解為位移、尺度估計(jì)和再檢測。長時(shí)相關(guān)跟蹤框架結(jié)構(gòu)如圖3所示。

        圖3 本文使用的長時(shí)跟蹤框架Fig.3 The long-term tracking framework used in this paper

        通過位移濾波器 AT捕捉目標(biāo)外觀的短期記憶,然后利用上下文信息來進(jìn)行學(xué)習(xí)。為了減輕由圓周移動(dòng)引起的邊界不連續(xù)性,使用一個(gè)二維余弦窗口來對輸入特征的每個(gè)通道進(jìn)行加權(quán)求和處理,由濾波器的相關(guān)響應(yīng)圖推斷目標(biāo)位置Pt。而本文算法采用1.2節(jié)中選取的HOG和CN特征,結(jié)合1.1節(jié)描述的相關(guān)濾波器,組成了長時(shí)框架中的位移濾波器。

        尺度濾波器AS直接使用HOG特征構(gòu)造以目標(biāo)位置為中心的目標(biāo)外觀特征金字塔[24]。設(shè)L×H為目標(biāo)尺寸,由不同比例因子α組成的 33個(gè)不同尺寸的目標(biāo)樣本(即從尺寸為αL×αH的圖像塊中提取特征),形成多尺度表示的特征金字塔。與AT位移濾波器不同的是,直接從目標(biāo)區(qū)域提取特征,而不考慮周圍的背景,因?yàn)樗鼈儾惶峁╆P(guān)于目標(biāo)尺度變化的信息。為避免不準(zhǔn)確的尺度估計(jì)導(dǎo)致背景噪聲影響位移濾波器,本算法設(shè)定在跟蹤的第一幀更新尺度濾波器,但在隨后的跟蹤中不會(huì)為每幀框架提供尺度信息。同時(shí),這種設(shè)定能夠進(jìn)一步減少計(jì)算成本。

        相關(guān)跟蹤模塊通過長期濾波器AL與建立在SVM分類器上的重檢測模塊進(jìn)行協(xié)作。AL輸出響應(yīng)的相關(guān)響應(yīng)圖f(z)=F-1(κx?z⊙A)為二維,以最大響應(yīng)RL=m ax(fAL(z))作為置信度的評分。為了捕獲目標(biāo)外觀的長期記憶,確定跟蹤失敗是否發(fā)生,算法設(shè)置了一個(gè)穩(wěn)定閾值TS,只有在被跟蹤目標(biāo)z的置信分?jǐn)?shù)maxf(z)超過穩(wěn)定閾值的情況下,才激活再檢測模塊。

        再檢測模塊使用密集的訓(xùn)練樣本逐步訓(xùn)練 SVM 分類器。給定訓(xùn)練集其中vi為第i個(gè)樣本生成的特征向量,ci∈{+1 ,-1 }為類標(biāo)簽。求解SVM檢測器超平面h的目標(biāo)函數(shù)為

        采用被動(dòng)攻擊算法(Passive-Aggressive Alogrithm)來有效地更新超平面參數(shù)。與長時(shí)濾波器相似,只有當(dāng)置信分?jǐn)?shù)RL高于閾值TS時(shí),才使用式(9)更新分類器參數(shù)。

        式中 ?hl(h;(v,c))是用h表示的損失函數(shù)的梯度;τ∈ (0,+∞ ),是控制h更新速率的超參數(shù)。

        不論是否激活再檢測模塊,濾波器都會(huì)更新目標(biāo)樣本的外觀模型。根據(jù)第t幀所學(xué)習(xí)的外觀模型與第t幀之前的模型信息,引入學(xué)習(xí)率參數(shù)加權(quán)求和獲得當(dāng)前幀的外觀模型。由模型自適應(yīng)和位移、尺度濾波器組成的短時(shí)跟蹤器來保證模型的穩(wěn)定性。更新方式為

        式中η為學(xué)習(xí)率,η∈ ( 0,1);Xt,at分別為第t幀更新前的位移濾波器和尺度濾波器的外觀模型;,分別為第t幀更新后的位移濾波器和尺度濾波器的外觀模型;,分別為第t-1幀更新后的位移濾波器和尺度濾波器的外觀模型。

        2 試驗(yàn)分析

        2.1 測試數(shù)據(jù)集與指標(biāo)選取

        利用上述方法,從SkySat-1、“歐比特”衛(wèi)星的4個(gè)視頻中(分辨率為m級、幀率為20幀/s以上)選取6個(gè)目標(biāo)分別進(jìn)行跟蹤測試對比,視頻詳情如表1所示。測試數(shù)據(jù)場景主要包括了目標(biāo)的非勻速運(yùn)動(dòng)、平面內(nèi)旋轉(zhuǎn)、光照變化、相似臨近目標(biāo)和背景干擾等擾動(dòng)因素。同時(shí),為了能夠更準(zhǔn)確地測試算法在多干擾因素下的性能表現(xiàn),考慮到天基視頻存在光照強(qiáng)度不穩(wěn)定、多遮擋、相機(jī)抖動(dòng)等情況,本文選取了OTB100近景數(shù)據(jù)集[25]中體現(xiàn)天基遙感視頻成像特性的16個(gè)視頻(見表2)作為補(bǔ)充數(shù)據(jù)進(jìn)行試驗(yàn)。

        表1 衛(wèi)星視頻數(shù)據(jù)詳情Tab.1 Details of the satellite video data

        表2 OTB近景數(shù)據(jù)集視頻與干擾屬性Tab.2 Video and interference properties of OTB close-range dataset

        天基視頻數(shù)據(jù)沒有專業(yè)的檢測標(biāo)記真值框,無法進(jìn)行精度測試。針對此種情況,本文采用全程目視對比目標(biāo)跟蹤情況的辦法。而近景視頻由于有專業(yè)的人工標(biāo)注,則采用精度和成功率兩項(xiàng)指標(biāo)進(jìn)行定量分析。

        精度(Precision plot)顯示了估計(jì)的目標(biāo)位置在距離地面真值一定閾值距離內(nèi)的幀的百分比。規(guī)定閾值為20,繪制曲線中這一點(diǎn)的精度(跟蹤器與地面真值之間的距離小于20像素的幀的百分比)。這個(gè)閾值大致相當(dāng)于跟蹤器邊界框和地面真實(shí)值之間至少有50%的重疊。

        成功率(Success plot)是為了測量一系列幀的性能,通過計(jì)算重疊S大于給定閾值t0的成功幀的數(shù)量,以顯示在閾值從0到1之間成功幀的比率。計(jì)算公式為:

        式中rt為跟蹤邊界框;ra為地面真值邊界框。

        2.2 結(jié)果分析

        為進(jìn)一步探究算法各組件發(fā)揮的作用,本文從特征選取、尺度變化、再檢測三個(gè)方面,選擇了包括本文方法在內(nèi)的 5種現(xiàn)有較為先進(jìn)的典型跟蹤算法,通過測試來比較在天基情況下各種算法的優(yōu)劣。5種算法分別為:本文提出的多特征融合長時(shí)跟蹤(SF-LT)法、自適應(yīng)顏色屬性實(shí)時(shí)跟蹤(CN)法、高斯核化相關(guān)濾波跟蹤(KCF)法、長時(shí)相關(guān)跟蹤(LCT)法和特征融合尺度適應(yīng)相關(guān)濾波跟蹤(SAMF)法[26]。以上算法的試驗(yàn)環(huán)境為:Intel i7-9750H 2.60GHz CPU,16GB內(nèi)存,Matlab R2018a。

        首先,針對 6個(gè)視頻衛(wèi)星數(shù)據(jù)對算法進(jìn)行試驗(yàn)。圖4分別顯示了不同天基視頻數(shù)據(jù)的目標(biāo)跟蹤結(jié)果,從圖中可以看出,本文算法均能較好地跟蹤目標(biāo),跟蹤框也保持了目標(biāo)的尺度大小,未受到天基成像擾動(dòng)的影響。

        圖4 天基視頻跟蹤結(jié)果Fig.4 Space-based video tracking results

        在SkySat迪拜城區(qū)視頻中,目標(biāo)尺寸最為接近點(diǎn)目標(biāo)。該目標(biāo)幾乎無紋理且難以提取特征,SAMF、LCT、KCF從給定視頻初始幀后就沒能跟上目標(biāo),而CN則跟上了相似的錯(cuò)誤目標(biāo)。因此,單特征算法特別是顏色特征是無法適應(yīng)天基視頻的跟蹤環(huán)境。本文提出的SF-LT算法選擇了適合天基視頻屬性的特征并進(jìn)行融合,基本上能夠全程跟蹤上。在土耳其西部礦區(qū)的采礦作業(yè)視頻中,出現(xiàn)了背景與目標(biāo)相似的干擾因素,本文算法從660幀開始出現(xiàn)目標(biāo)丟失到再檢測找回共21次,最終能夠穩(wěn)定跟蹤目標(biāo),而其他算法從目標(biāo)第一次跟丟開始就偏離目標(biāo)直至視頻結(jié)束。由此可以看出,在算法跟丟目標(biāo)后,因?yàn)橐腴L時(shí)跟蹤策略,由相關(guān)濾波的最大響應(yīng)值作為置信度能夠判斷算法已丟失目標(biāo),通過調(diào)用檢測模塊進(jìn)行再檢測以尋找目標(biāo),這對天基目標(biāo)跟蹤的穩(wěn)定性起到了重要的作用。此外,在SkySat拉斯維加斯視頻中,從28到132幀這一段,目標(biāo)車輛附近出現(xiàn)相似車輛,因?yàn)楦櫩虮尘安糠殖霈F(xiàn)非道路樣本,LCT和CN算法先后由于特征提取出現(xiàn)偏差而跟丟目標(biāo)。隨后,從746幀開始,因邊界效應(yīng)的緣故,KCF和SAMF算法也相繼失去目標(biāo)。這主要是因?yàn)檫@4種算法更新頻率過高,不可避免地會(huì)將每一幀無關(guān)的背景負(fù)樣本帶入算法的訓(xùn)練集中,導(dǎo)致跟蹤器訓(xùn)練的目標(biāo)外觀模型逐漸失真,從而使跟蹤失敗。但是,本文算法抑制了更新的頻率,有效地緩解了背景干擾因素過多的問題。最后,在4個(gè)視頻里最具挑戰(zhàn)的“歐比特”天基視頻中,本文算法依然保證了跟蹤的精度與穩(wěn)定性,該視頻分辨率高、目標(biāo)相對清晰度低、背景雜亂,但本文算法仍實(shí)現(xiàn)了全程穩(wěn)健跟蹤,這證明了特征的選取與長時(shí)框架的融合在天基視頻跟蹤中具有明顯的優(yōu)勢。

        其次,使用所選算法在OTB數(shù)據(jù)中挑選的16個(gè)與天基干擾因素相似的視頻進(jìn)行測試。針對平面外旋轉(zhuǎn)、目標(biāo)形變、光照變化、遮擋和低分辨率這5種常出現(xiàn)在天基視頻中的干擾,圖5給出的算法精度與成功率證明,本文提出的SF-LT方法與現(xiàn)有較為先進(jìn)的相關(guān)濾波類算法SAMF的跟蹤結(jié)果雖然互有勝負(fù),但在跟蹤過程中丟失目標(biāo)的情況下具有再檢測找回的功能,因此成功率更高。同時(shí)保證了所有視頻序列的跟蹤實(shí)時(shí)性,幀率相比SAMF高出了46.8%。

        圖5 五個(gè)算法在OTB數(shù)據(jù)中的平均精度與成功率Fig.5 The average precision and success rate plots of five algorithms in OTB data sets

        表3總結(jié)的測試算法差異與OTB數(shù)據(jù)集測試結(jié)果通過精度、成功率、幀率的量化方式驗(yàn)證了天基視頻試驗(yàn)跟蹤方法的有效性。同時(shí),由天基視頻和近似于天基視頻特征的OTB近景視頻可進(jìn)一步得出以下結(jié)論:1)特征的選取決定了算法的主要性能表現(xiàn),而梯度直方圖與顏色名稱作為天基特征描述子是目前較好的選擇;2)在以相關(guān)濾波為理論基礎(chǔ)的跟蹤算法中背景負(fù)樣本引起的邊界效應(yīng)會(huì)影響跟蹤精度,而天基視頻因背景雜亂受到的影響更大。所以,有必要為算法添加尺度估計(jì)機(jī)制;3)引入長時(shí)跟蹤框架可以緩解目標(biāo)跟蹤丟失的問題,同時(shí)采取一種更為保守的更新方案能緩解尺度濾波器帶來的誤差積累對位移濾波器和長時(shí)濾波器產(chǎn)生的不利影響,從而提高跟蹤精度。

        表3 各跟蹤器差異與OTB數(shù)據(jù)集測試結(jié)果Tab.3 Difference of all the trackers and the results of OTB data sets

        總的來說,針對復(fù)雜多變的天基視頻目標(biāo),基于HOG和CN特征相融合的長時(shí)跟蹤策略能夠滿足在軌跟蹤的需求,在實(shí)時(shí)性和有效性上取得了較好的平衡。

        3 結(jié)束語

        本文以研究相關(guān)濾波類跟蹤方法為基礎(chǔ),針對傳統(tǒng)算法在天基遙感視頻中適應(yīng)性差的問題,從特征提取與跟蹤框架兩個(gè)方面入手,選擇梯度直方圖與顏色名稱進(jìn)行多特征融合,同時(shí)為保證天基視頻跟蹤的抗干擾能力而引入長時(shí)跟蹤框架,為跟蹤器提供再檢測的功能。通過6組天基視頻和OTB100數(shù)據(jù)對該方法的有效性進(jìn)行驗(yàn)證,結(jié)果表明,其綜合性能明顯優(yōu)于現(xiàn)有相關(guān)跟蹤方法。這證明了天基視頻跟蹤中特征選取的重要性與長時(shí)跟蹤策略引入的必要性,以及在遙感視頻跟蹤領(lǐng)域應(yīng)用相關(guān)濾波類方法的可行性,對進(jìn)一步開發(fā)遙感視頻衛(wèi)星技術(shù)具有重要意義。

        但此方法也有需要改進(jìn)的方面,主要包括:多特征的融合會(huì)導(dǎo)致計(jì)算復(fù)雜度的大幅增加,如何選擇特征中的主要維度,需通過引入降維技術(shù)保證算法的實(shí)時(shí)性;另外,針對天基視頻目標(biāo)尺寸小、運(yùn)動(dòng)軌跡平滑等特點(diǎn),未來需對更多適合于此特點(diǎn)的特征描述子進(jìn)一步研究,從而完善算法特征的選取。

        猜你喜歡
        特征
        抓住特征巧觀察
        離散型隨機(jī)變量的分布列與數(shù)字特征
        具有兩個(gè)P’維非線性不可約特征標(biāo)的非可解群
        月震特征及與地震的對比
        如何表達(dá)“特征”
        被k(2≤k≤16)整除的正整數(shù)的特征
        不忠誠的四個(gè)特征
        詈語的文化蘊(yùn)含與現(xiàn)代特征
        新聞傳播(2018年11期)2018-08-29 08:15:24
        抓住特征巧觀察
        基于特征篩選的模型選擇
        国产精品va在线观看无码| 精品国产福利片在线观看| 国产a级精精彩大片免费看| 欧美熟妇与小伙性欧美交| 日本高清二区视频久二区| 亚洲av少妇高潮喷水在线| 日韩精品中文一区二区三区在线| 国产一区内射最近更新| 精产国品一二三产区m553麻豆| 久久精品伊人无码二区| 亚洲精品久久久中文字| 国产另类av一区二区三区| 2019nv天堂香蕉在线观看| 成人激情五月天| 国产亚洲欧美在线| 成人免费无码视频在线网站| 亚洲中文字幕乱码免费看| 日韩精品在线一二三四区| 亚洲va国产va天堂va久久| 亚洲 欧美 综合 另类 中字| 秀人网嫩模李梓熙大尺度| 国产日产在线视频一区| 国产午夜精品av一区二区麻豆 | 国产一区内射最近更新| 黄色资源在线观看| 日本精品久久中文字幕| 日本精品视频一区二区三区四区| 老师露出两个奶球让我吃奶头| 亚洲av成本人无码网站| 成人日韩av不卡在线观看| 一区二区三区在线观看视频免费 | 免费啪啪av人妻一区二区| 日韩中文字幕有码午夜美女| 色欲人妻综合网| 一区二区国产在线观看| 国产白浆精品一区二区三区| 成人性生交大片免费5| 深夜爽爽动态图无遮无挡| 草草浮力地址线路①屁屁影院| 日韩中文字幕中文有码| av在线免费观看你懂的|