亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于自適應(yīng)模板更新的改進(jìn)孿生卷積網(wǎng)絡(luò)目標(biāo)跟蹤算法

        2021-04-15 03:48:20孫淑艷
        關(guān)鍵詞:特征檢測模型

        柳 赟 孫淑艷

        (華北電力大學(xué)電氣與電子工程學(xué)院 北京 102206)

        0 引 言

        機(jī)載光電平臺是由伺服控制系統(tǒng)、測距機(jī)、紅外熱像儀、電視、跟蹤器等單體組成,可實(shí)現(xiàn)對地目標(biāo)檢測、跟蹤與識別[1]。目標(biāo)跟蹤技術(shù)是機(jī)載光電平臺實(shí)現(xiàn)對地目標(biāo)穩(wěn)定跟蹤的主要技術(shù),其跟蹤的性能直接關(guān)系到對地目標(biāo)感知的精度。

        目標(biāo)跟蹤是計(jì)算機(jī)視覺領(lǐng)域非常重要的研究課題之一,廣泛應(yīng)用于運(yùn)動分析[2]、機(jī)器人導(dǎo)航[3]、人機(jī)交互[4]、視頻監(jiān)控[5]等領(lǐng)域?,F(xiàn)有的目標(biāo)跟蹤算法主要從模型泛化與特征表征兩個方面提高目標(biāo)定位精度與跟蹤魯棒性[6]。然而,復(fù)雜的跟蹤算法或特征表征方法雖然改善了目標(biāo)跟蹤性能,但同時也增加了計(jì)算復(fù)雜性。因此,如何平衡跟蹤算法的精度與速度是跟蹤算法工程化應(yīng)用亟需考慮的核心問題。

        基于低層次特征的跟蹤算法,如LAKCF[2]和TMFT[4],大都融合了多尺度、多分辨率、多特征信息來提高跟蹤指標(biāo)與跟蹤速度,而基于深度模型的跟蹤網(wǎng)絡(luò),如Siamese跟蹤網(wǎng)絡(luò)[7],則是平衡了速度和精度之間矛盾而逐漸成為單目標(biāo)跟蹤研究中最優(yōu)模型。一般來說,基于深度模型的跟蹤算法將傳統(tǒng)的跟蹤任務(wù)從目標(biāo)搜索和回歸過程轉(zhuǎn)換為相似性比較問題,并在固定時間內(nèi)完成目標(biāo)跟蹤。DSiam網(wǎng)絡(luò)采用在線學(xué)習(xí)目標(biāo)的外觀變化和背景抑制,在排除背景干擾的同時適應(yīng)目標(biāo)變化,提高跟蹤性能[8]。

        盡管改進(jìn)Siamese跟蹤方法能夠平衡跟蹤的速度和準(zhǔn)確性,但仍有三個問題需要解決:(1) 大多數(shù)Siamese網(wǎng)絡(luò)跟蹤器無法更新模板,主要是由于簡單的固定模板確保了較高跟蹤速度,但犧牲了更好地適應(yīng)目標(biāo)外觀形變的能力;(2) 由于復(fù)雜背景的干擾,大多數(shù)Siamese跟蹤網(wǎng)絡(luò)的性能無法得到保證,這是由于傳統(tǒng)的跟蹤邊界框不能分離背景干擾,最終由于目標(biāo)跟蹤點(diǎn)漂移而導(dǎo)致跟蹤失??;(3)由于大多數(shù)Siamese跟蹤網(wǎng)絡(luò)采用的是本地搜索策略,對視場外目標(biāo)和全遮擋目標(biāo)仍然具有很大的挑戰(zhàn)。因此,為了解決這些問題,本文提出一種自適應(yīng)模板更新策略的全連接Siamese跟蹤模型,該模型利用了輪廓模板代替?zhèn)鹘y(tǒng)的邊界框模板,減少語義背景的干擾;設(shè)計(jì)了基于目標(biāo)檢測網(wǎng)絡(luò)和輪廓檢測網(wǎng)絡(luò)的模板更新網(wǎng)絡(luò),能夠根據(jù)不同的條件自適應(yīng)地更新模板。多種數(shù)據(jù)集的仿真實(shí)驗(yàn)結(jié)果表明本文提出的改進(jìn)模型能夠?qū)崿F(xiàn)無人機(jī)空地跟蹤性能,具有較高的工程應(yīng)用價(jià)值。

        1 相關(guān)工作

        1.1 模板更新

        近年來,許多跟蹤算法在無人機(jī)空對地跟蹤應(yīng)用中取得了巨大的成功,這些算法能夠解決因姿態(tài)變化、部分遮擋和光照變化等干擾造成的跟蹤失敗問題。但是,對于無人機(jī)機(jī)動轉(zhuǎn)向?qū)е履繕?biāo)圖像大角度旋轉(zhuǎn),大多數(shù)跟蹤算法可能無法穩(wěn)定跟蹤目標(biāo)。圖1展示了由車輛快速轉(zhuǎn)向引起的跟蹤失敗的例子,其中黑色為基準(zhǔn)結(jié)果,白色則是跟蹤結(jié)果。第15幀跟蹤結(jié)果與基準(zhǔn)結(jié)果存在漂移;隨著目標(biāo)機(jī)動變化,目標(biāo)外觀劇烈變化,導(dǎo)致跟結(jié)果出現(xiàn)較大的差異。第37幀時跟蹤框逐漸偏離目標(biāo),最后在第69幀完全跟蹤到錯誤的目標(biāo)上。

        為了跟蹤出現(xiàn)劇烈外觀變化的目標(biāo),一些方法會按固定幀率或自適應(yīng)幀率更新目標(biāo)模板,以提高跟蹤精度。這些模板更新策略假定當(dāng)前更新的模板比先前幀中的任何其他模板更好地描述目標(biāo)[9]。然而,這種假設(shè)有時可能面臨以下問題。(1) 模板通常是根據(jù)當(dāng)前幀的跟蹤結(jié)果進(jìn)行更新。由于跟蹤器無法精確跟蹤目標(biāo),這就使得跟蹤結(jié)果包含錯誤信息,導(dǎo)致模板更新不準(zhǔn)確。因此,更新后的模板無法準(zhǔn)確描述當(dāng)前目標(biāo),最終導(dǎo)致跟蹤器失效。顯然,上述簡單的模板更新方法無法滿足空對地跟蹤需求。(2) 當(dāng)跟蹤目標(biāo)被背景信息部分遮擋時,例如被樹遮擋的坦克,傳統(tǒng)的方形邊界框模板更新會將坦克周圍的部分背景作為跟蹤目標(biāo)的一部分而引入背景干擾。為了避免復(fù)雜背景雜波對目標(biāo)模板的影響,需要兩種模板更新策略。第一種策略是引入自適應(yīng)策略讓跟蹤器計(jì)算更新模板最佳時機(jī),而不是簡單地按照固定幀更新,該策略不僅可以降低模板被干擾的頻率,而且可以降低無用模板頻繁更新的計(jì)算復(fù)雜度;第二種策略是保留備份模板,一旦當(dāng)前模板遇到不匹配的問題,備份模板可能會發(fā)揮重要作用,該策略可以有效地提高跟蹤算法的魯棒性[10-11]。

        1.2 形狀自適應(yīng)模板

        目標(biāo)檢測和跟蹤是計(jì)算機(jī)視覺中兩個基本而又具有挑戰(zhàn)性的研究課題。它們在大多數(shù)任務(wù)中高度相關(guān),目標(biāo)檢測提供的輸入可以指導(dǎo)跟蹤并提高其跟蹤性能[12]。同時,精確跟蹤為目標(biāo)檢測提供了可靠的觀測結(jié)果。目前,已經(jīng)有多種邊界框輸出的目標(biāo)跟蹤方法,這類基于判別模型的目標(biāo)跟蹤算法都是利用邊界框模板在搜索區(qū)域進(jìn)行相似性檢測。由于邊界框只是指明了目標(biāo)所在區(qū)域,受背景噪聲的干擾無法精確定位目標(biāo)[13]。相比之下,物體邊緣輪廓清楚地顯示了目標(biāo)的形狀和精確位置。利用目標(biāo)輪廓代替邊界框進(jìn)行檢測或跟蹤,不僅有助于提高精度,而且可以根據(jù)目標(biāo)的形狀識別目標(biāo)。

        圖2顯示了邊界框標(biāo)記方法和對象輪廓標(biāo)記方法的結(jié)果。利用邊界框標(biāo)記目標(biāo)位置,得到的是一個粗糙的波門,而利用輪廓標(biāo)記目標(biāo)位置得到的結(jié)果是目標(biāo)的輪廓邊界。顯然,與邊界框標(biāo)記相比,目標(biāo)輪廓模板結(jié)果包含了大部分的目標(biāo)信息和最少的背景信息。

        (a) 邊界框模板 (b) 輪廓模板圖2 跟蹤模板

        在無人機(jī)空對地跟蹤系統(tǒng)中,初始鎖定目標(biāo)在大多數(shù)情況下非常小。此外,目前實(shí)時跟蹤系統(tǒng)都是利用邊界框鎖定目標(biāo),不可能在圖像上描繪目標(biāo)邊界區(qū)域進(jìn)行鎖定。這就需要使跟蹤器更智能,能夠區(qū)分目標(biāo)和背景。因此,提出一種自適應(yīng)模板更新策略的全連接Siamese跟蹤模型,該模型從目標(biāo)中提取形狀自適應(yīng)模板,并使用完全卷積Siamese網(wǎng)絡(luò)進(jìn)行跟蹤。與大多數(shù)在跟蹤中使用初始邊界框標(biāo)注目標(biāo)位置不同,本文模型通過單擊監(jiān)視器屏幕上的目標(biāo)來選擇實(shí)時視頻中的目標(biāo)。一旦有操作員點(diǎn)擊目標(biāo)的任何部分,系統(tǒng)將自動獲取目標(biāo)輪廓信息,并利用深度學(xué)習(xí)實(shí)現(xiàn)穩(wěn)定跟蹤。特別是本文模型將在語義級別自動檢測和分割所選目標(biāo)的輪廓,然后從沒有背景信息的輪廓模型中提取目標(biāo)特征。也就是說,跟蹤器是在跟蹤目標(biāo),而不是跟蹤邊界框區(qū)域。

        2 自適應(yīng)模板更新策略的全卷積Siamese跟蹤模型

        大多數(shù)現(xiàn)有的跟蹤方法都是利用公共數(shù)據(jù)集中準(zhǔn)確的基準(zhǔn)參數(shù)初始化模板,而本文的目的是基于實(shí)時視頻中人工選擇目標(biāo)來設(shè)計(jì)目標(biāo)跟蹤網(wǎng)絡(luò)。該模型不需要目標(biāo)邊界框進(jìn)行目標(biāo)鎖定,而是自動獲取目標(biāo)輪廓信息,并利用深度學(xué)習(xí)實(shí)現(xiàn)穩(wěn)定跟蹤。

        2.1 系統(tǒng)流程設(shè)計(jì)

        本文提出的跟蹤模型主要應(yīng)用在無人機(jī)光電跟蹤系統(tǒng)上,通過操作手對地面目標(biāo)進(jìn)行鎖定,實(shí)現(xiàn)復(fù)雜地面目標(biāo)的穩(wěn)定跟蹤,其系統(tǒng)流程如圖3所示。首先,紅外熱像儀獲取的數(shù)字視頻在屏幕顯示,并由操作手通過單擊選擇待跟蹤的目標(biāo);然后,系統(tǒng)將根據(jù)初始點(diǎn)的位置通過檢測輪廓和抽象語義信息自動學(xué)習(xí)要跟蹤的目標(biāo)的特征信息。提取目標(biāo)特征后,系統(tǒng)開始逐幀跟蹤目標(biāo),并保存具有高可信度的模板作為待跟蹤目標(biāo)。如果由于目標(biāo)形變或遮擋導(dǎo)致模板和跟蹤目標(biāo)之間相似而小于閾值,這表明初始模板不能在當(dāng)前幀中精確匹配對目標(biāo)特征,系統(tǒng)將使用一些策略更新模板。

        圖3 系統(tǒng)流程

        2.2 自適應(yīng)模板更新策略

        本文提出的模板更新網(wǎng)絡(luò)包含兩個獨(dú)立網(wǎng)絡(luò):輪廓檢測網(wǎng)絡(luò)和目標(biāo)檢測網(wǎng)絡(luò),其跟蹤主框架如圖4所示。第一幀選擇獲取目標(biāo)的輪廓,所對應(yīng)的算法就是輪廓檢測網(wǎng)絡(luò)。在輪廓檢測網(wǎng)絡(luò)的輸出端,采用人工選擇點(diǎn)開始的填充算法建立模板。一旦系統(tǒng)需要根據(jù)模板更新網(wǎng)絡(luò)的結(jié)果更新后續(xù)幀中的模板,輪廓檢測網(wǎng)絡(luò)的輸出可以重新用于進(jìn)一步處理。具體來說,填充算法以當(dāng)前幀中跟蹤結(jié)果的中心點(diǎn)為起點(diǎn),搜尋輪廓并生成新的模板。

        圖4 輪廓跟蹤模型主框架

        1) 輪廓檢測網(wǎng)絡(luò)。VGG-16網(wǎng)絡(luò)具有很高的深度和密度,由于訓(xùn)練簡單、收斂速度快,在分類任務(wù)中得到了廣泛的應(yīng)用[14]。因此,本文也采用VGG-16網(wǎng)絡(luò)結(jié)構(gòu)來提取輪廓特征。為了檢測邊緣,輪廓檢測網(wǎng)絡(luò)做了一些修改。首先,移除所有完全連接的層,然后將最后一個最大池化層刪除,最后將輸出端與精化模塊連接。VGG-16網(wǎng)絡(luò)中最大池化的Conv1、Conv2、Conv3、Conv4和Conv5作為前端來提取目標(biāo)的特征,然后對后端進(jìn)行修改,使網(wǎng)絡(luò)能夠提取輪廓信息。這種思想源于整體嵌套邊緣檢測網(wǎng)絡(luò)(Holistically-Nested Edge Detection,HED)的五個多尺度匯集層[15]:較低層捕獲更多的空間細(xì)節(jié),但缺乏足夠的語義信息;相反,較深層編碼更多的語義信息,但缺少空間細(xì)節(jié)信息。在本文任務(wù)中,無用的背景信息和抽象的目標(biāo)輪廓干擾需要被減少。因此,本文使用更深層的特性來構(gòu)建模板。然而,特別是在較深的層次上,HED網(wǎng)絡(luò)中的邊緣輸出更容易受到密集邊問題的影響。需要對輸出邊界進(jìn)行細(xì)化,以生成清晰和準(zhǔn)確的目標(biāo)輪廓。此外,最終的輸出需要通過上采樣最大池化和反卷積調(diào)整到原始大小[16]。為了在卷積過程中獲得最佳的性能,本文選擇了最小的卷積濾波器(3×3),其步幅為一個像素,可以捕獲左/右、上/下和中心運(yùn)動;最大的池化是在2×2像素的窗口上以步幅2操作。因此,本文采用的輪廓檢測網(wǎng)絡(luò)中每個卷積層和最大池化層的參數(shù)配置如表1所示,其中RF、C和P分別是感受野、卷積與池化的縮寫。

        表1 輪廓檢測網(wǎng)絡(luò)中每層參數(shù)設(shè)置

        本文采用的輪廓檢測網(wǎng)絡(luò)輸出是具有邊緣信息的二值圖。 首先,本文使用泛洪填充方法來生成連通區(qū)域,以表示從等高線圖中選擇的目標(biāo)的位置;然后在二值圖基礎(chǔ)上進(jìn)一步生成目標(biāo)掩模,該掩模將背景信息設(shè)置為零,并且從原始圖像中分割所選目標(biāo);最后,提取目標(biāo)特征,表征為沒有背景信息的目標(biāo)模板。可以看出,該策略成功地解決了復(fù)雜背景下邊界框的漂移問題。

        2) 目標(biāo)檢測網(wǎng)絡(luò)。目標(biāo)檢測是計(jì)算機(jī)視覺中的熱點(diǎn)問題之一。對于無人機(jī)平臺光電實(shí)時搜跟系統(tǒng),本文只關(guān)注高速目標(biāo)檢測算法。目前,基于深度網(wǎng)絡(luò)的目標(biāo)檢測模型已經(jīng)具有較高的檢測性能。例如,作為最先進(jìn)的目標(biāo)檢測方法之一,YOLOv3可以高精度地檢測不同尺度的目標(biāo)[17-18]。輕量級YOLOv3通過通道裁剪犧牲了檢測精度,以提高檢測速度,對于小目標(biāo)不能有效檢測。但是,在空對地光電系統(tǒng)中大多數(shù)目標(biāo)都是小尺寸的。為了避免上下文信息的丟失,本文在空洞卷積(dilated convolution)[19]啟發(fā)下引入了擴(kuò)張模塊層來擴(kuò)展感受野。表2給出了卷積網(wǎng)絡(luò)與擴(kuò)張卷積網(wǎng)絡(luò)之間參數(shù)的比較。

        表2 不同網(wǎng)絡(luò)間的參數(shù)對比

        為了融合較低層中的目標(biāo)位置信息和較高層中的語義信息,網(wǎng)絡(luò)結(jié)構(gòu)中引入轉(zhuǎn)移層(passthrough layer)。 具體而言,較低層的特征包含更細(xì)粒度的信息,這有助于定位小目標(biāo)。 因此,本文設(shè)計(jì)一個帶有步幅2的轉(zhuǎn)移層,它將特征圖從2M×2N×C轉(zhuǎn)換為M×N×4C,其中M、N與C分別表示特征圖的分辨率與特征通道。功能圖如圖5所示,可以看出不同灰度點(diǎn)分別擴(kuò)張到四個通道。最后得到了與YOLOv3類似的精度和速度。轉(zhuǎn)移層通過將相鄰特征堆疊到不同的通道,利用下采樣時同一位置像素分解成四幅子圖,然后將較高分辨率特征與低分辨率特征的信息融合。變換后通道數(shù)變?yōu)?倍,分辨率降為原來2倍。例如26×26×512的特征圖轉(zhuǎn)換為與原始特征相連接的13×13×2 048的特征圖。

        圖5 轉(zhuǎn)移層示意圖

        3) 基于模板更新策略的改進(jìn)Siamese跟蹤網(wǎng)絡(luò)。對于大多數(shù)改進(jìn)的Siamese跟蹤網(wǎng)絡(luò),例如Tian等[20]提出的ISCCT,在沒有目標(biāo)特征信息的情況下首先通過縮放和裁剪輸入目標(biāo)圖像。在此過程中,當(dāng)目標(biāo)移出邊界框時,為上下文添加邊緣信息是非常有用的,但同時,它可能會導(dǎo)致目標(biāo)尺度降低,并且引入更多背景信息。ISCCT優(yōu)于SiamFC有三個原因:(1) SiamFC的全卷積網(wǎng)絡(luò)結(jié)構(gòu)使得離線訓(xùn)練數(shù)據(jù)具有高度可辨識性;(2) SiamFC使用嚴(yán)格有監(jiān)督約束的響應(yīng)圖而不是回歸分析;(3) 利用相關(guān)層作為融合張量,提高了融合張量的準(zhǔn)確性。可以看出,ISCCT使用前一幀中的回歸結(jié)果并更新每個幀中的模板,SiamFC[7]根據(jù)第一幀中的基準(zhǔn)區(qū)域生成模板,而本文模型則是操作員在系統(tǒng)中手動選擇,利用輪廓檢測網(wǎng)絡(luò)獲取目標(biāo)的輪廓模板。通過相關(guān)運(yùn)算計(jì)算模板與搜索區(qū)域之間的特征相似度,并生成相似性響應(yīng)圖,然后通過更新閾值判斷實(shí)現(xiàn)模板的更新。響應(yīng)圖中的最高響應(yīng)值表示目標(biāo)中心在下一幀中的位置。因此,系統(tǒng)實(shí)現(xiàn)了逐幀跟蹤功能。

        圖6展示了本文改進(jìn)的Siamese跟蹤網(wǎng)絡(luò)的架構(gòu):首先,全卷積網(wǎng)絡(luò)分別將輪廓模板和搜索區(qū)域作為輸入,并輸出模板和搜索區(qū)域的深度特征。然后,通過模板特征與搜索區(qū)域特征之間的相似性進(jìn)行相關(guān)來生成響應(yīng)圖。最后根據(jù)響應(yīng)圖上的最高響應(yīng)點(diǎn)作為在搜索區(qū)域中跟蹤目標(biāo)。 Siamese網(wǎng)絡(luò)中卷積層的內(nèi)核大小和步幅的參數(shù)設(shè)置如表3所示。

        圖6 本文改進(jìn)的Siamese跟蹤網(wǎng)絡(luò)的架構(gòu)

        表3 Siamese網(wǎng)絡(luò)中的參數(shù)設(shè)置

        3 實(shí) 驗(yàn)

        3.1 實(shí)驗(yàn)設(shè)置及其性能評價(jià)指標(biāo)

        為了驗(yàn)證本文提出的深度跟蹤模型的有效性,采用標(biāo)準(zhǔn)數(shù)據(jù)集DARPA VIVID[21]、ILSVRC2015、VOT-TIR2016,以及掛飛收集的自建數(shù)據(jù)集進(jìn)行訓(xùn)練與測試。所有數(shù)據(jù)都逐幀標(biāo)注了目標(biāo)位置與尺寸,基本覆蓋了尺度變化、形變、透視變換、運(yùn)動模糊、遮擋、灰度變換、背景干擾等干擾因素。本文采用的定量評價(jià)為一次評估OPE(One-Pass Evaluation),主要采用了兩個評價(jià)指標(biāo):精確度圖(Precision plot)和成功率圖(Success plot),其中精確度圖能夠顯示出估計(jì)位置在給定的準(zhǔn)確值的閾值距離之內(nèi)的幀數(shù)占總幀數(shù)的百分比;成功率圖給出了閾值從0到1變化時成功幀所占的比例[21]。

        本文提出的模板更新網(wǎng)絡(luò)和Siamese跟蹤網(wǎng)絡(luò)是基于Python TensorFlow框架實(shí)現(xiàn),所有實(shí)驗(yàn)是在一個具有40核雙路Intel Xeon,最高頻率為2.4 GHz的CPU以及4張GeForce GTX 1080Ti GPU顯卡的工作站上進(jìn)行。

        3.2 定性定量分析

        為了定性定量分析本文提出的無人機(jī)空對地光電平臺下改進(jìn)Siamese深度模型的目標(biāo)跟蹤算法的應(yīng)用性能,選用目前最優(yōu)的五種跟蹤進(jìn)行對比分析,分別是SiamFC[7]、DCFNet[23]、SINT[24]、KCF[25]和DKCF[26],其中SiamFC、DCFNet與SINT是基于Siamese深度模型的改進(jìn)算法,KCF是基于判別模型的核相關(guān)算法;DKCF是結(jié)合深度特征的KCF算法。

        由于本文的初始跟蹤目標(biāo)波門大小是由算法自適應(yīng)計(jì)算,不再需要操作人員指定跟蹤區(qū)域,本文首先為這些目標(biāo)創(chuàng)建了一個組中心點(diǎn)標(biāo)簽,并修改了用于測試的Siamese跟蹤網(wǎng)絡(luò)的初始化模塊。根據(jù)視覺跟蹤基準(zhǔn)(Visual Tracker Benchmark)評價(jià)要求,本文只測試OPE指標(biāo)。圖7為基于OPE的精確度圖和成功率圖。

        (a) 精確度圖

        可以看出,本文提出的形狀自適應(yīng)模板方法在6種對比跟蹤算法中具有最佳跟蹤性能。在光電跟蹤系統(tǒng)中,中心位置精度決定了伺服響應(yīng)的速度與跟蹤精度,并且空對地場景中的大多數(shù)目標(biāo)尺寸約為20到40像素。為了便于定量分析,本文比較了中心位置誤差在20像素閾值以內(nèi)幀百分比,如表4所示,其中:位置誤差為20;重疊率為0.5。可以看出,本文算法在20個像素閾值的中心誤差精度是0.91,獲得最優(yōu)的跟蹤性能。本文算法在重疊率閾值0.5下的跟蹤成功率是0.872,比原始SiamFC模型還高4個百分點(diǎn)。定量分析結(jié)果表明,本文提出的輪廓模板更新算法具有較高的性能,通過輪廓的檢測識別,提高了跟蹤的準(zhǔn)確性。尤其是形變視頻下,本文算法能夠準(zhǔn)確地定位模板,減少了跟蹤點(diǎn)漂移現(xiàn)象。

        表4 跟蹤結(jié)果定量對比 %

        由于紅外目標(biāo)在遠(yuǎn)距離時,僅僅是一個點(diǎn)目標(biāo),沒有太多的形狀特征。本文算法是通過對比度分割獲取目標(biāo)形心中心與尺寸大小,然后再由Siamese 網(wǎng)絡(luò)進(jìn)行跟蹤,但不進(jìn)行刷新;若目標(biāo)輪廓特征明顯,由輪廓檢測網(wǎng)絡(luò)提取輪廓,跟蹤過程中通過自適應(yīng)輪廓模板進(jìn)行刷新。圖8(a)是沒有模板更新的Siamese 跟蹤網(wǎng)絡(luò)的結(jié)果;圖8(b)是在相同幀上使用自適應(yīng)模板更新策略進(jìn)行Siamese跟蹤的結(jié)果。其中:灰色波門是輪廓模板刷新效果;黑色波門是普通模板效果。可以看出,具有自適應(yīng)輪廓模板更新的網(wǎng)絡(luò)更能適應(yīng)目標(biāo)形變、透視變換等干擾的影響,其波門中心更接近目標(biāo)中心。

        (a) 沒有模板 (b) 自適應(yīng)模板圖8 自適應(yīng)輪廓模板效果對比

        (a) VOT-TIR2016數(shù)據(jù)

        4 結(jié) 語

        本文結(jié)合了輪廓檢測網(wǎng)絡(luò)和全卷積Siamese 跟蹤網(wǎng)絡(luò)的特點(diǎn),提出一種機(jī)載平臺下基于自適應(yīng)輪廓模板更新的Siamese 跟蹤網(wǎng)絡(luò)模型。該模型利用了輪廓模板代替?zhèn)鹘y(tǒng)的邊界框模板,與搜索區(qū)域一起作為Siamese網(wǎng)絡(luò)的輸入,并輸出模板和搜索區(qū)域的深度特征。然后通過模板特征與搜索區(qū)域特征之間的相似性生成響應(yīng)圖。最后將響應(yīng)圖極值點(diǎn)作為在搜索區(qū)域中跟蹤目標(biāo)。多種數(shù)據(jù)集的仿真實(shí)驗(yàn)結(jié)果表明,本文提出的改進(jìn)模型能夠?qū)崿F(xiàn)無人機(jī)空地跟蹤性能,具有較高的工程應(yīng)用價(jià)值。

        猜你喜歡
        特征檢測模型
        一半模型
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        如何表達(dá)“特征”
        不忠誠的四個特征
        抓住特征巧觀察
        3D打印中的模型分割與打包
        午夜一级韩国欧美日本国产| а天堂中文地址在线| 亚洲人成网网址在线看| 国产精品麻豆成人av电影艾秋| 精品一区二区av天堂| 亚洲一区二区日韩在线| 免费一级淫片日本高清| 日韩一区国产二区欧美三区| 欧美精品一区二区性色a+v| 漂亮的小少妇诱惑内射系列| 色婷婷av一区二区三区丝袜美腿| 乱老年女人伦免费视频| 国产精品高潮呻吟av久久4虎 | 黄色三级视频中文字幕| 中国少妇久久一区二区三区| 国产超碰人人爽人人做人人添| 狠狠色狠狠色综合日日不卡| 欧洲人体一区二区三区| 国产自拍91精品视频| 啦啦啦中文在线观看日本| 亚洲国产精品无码久久电影| 在线不卡中文字幕福利| 国产视频一区二区在线免费观看| 国产女人的高潮国语对白| 欧美a视频在线观看| 吃奶还摸下面动态图gif | 一区视频免费观看播放| 一本色道久久综合狠狠躁篇| 国产精品久久久久久妇女6080| 无码天堂在线视频| 99久久国内精品成人免费| 成人性生交大片免费看96| 日韩国产一区| 国产麻豆成人精品av| 极品少妇xxxx精品少妇偷拍| 性一交一乱一伦a片| 无码国产精品色午夜| 免费国产一区二区视频| 国产综合无码一区二区辣椒| 男女一级毛片免费视频看| 日韩国产一区二区三区在线观看|