亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        核相關濾波與孿生網絡相結合的目標跟蹤算法

        2021-04-12 09:50:54楊亞琦
        小型微型計算機系統(tǒng) 2021年4期
        關鍵詞:跟蹤目標濾波器卷積

        徐 亮,張 江,張 晶,2,3,楊亞琦

        1(昆明理工大學 信息工程與自動化學院,昆明 650500) 2(云南梟潤科技服務有限公司,昆明 650500) 3(昆明理工大學 云南省人工智能重點實驗室,昆明 650500) 4(中國船舶集團有限公司第七〇五研究所昆明分部,昆明 650102) 5(云南省市場監(jiān)督管理局,昆明 650228)

        1 引 言

        目標跟蹤在計算機視覺領域和信息物理融合系統(tǒng)感知層引起了越來越多的關注[1-3],目標跟蹤的相關研究與機器學習[4]和深度學習[5]等學科有著緊密的聯(lián)系.目標跟蹤過程中存在的各種干擾因素使得目標跟蹤效果差強人意,為此學者提出了很多優(yōu)秀的目標跟蹤算法,基于生成式模型算法計算后續(xù)幀輸入圖像中搜索區(qū)域圖像與上一幀輸入圖像中目標區(qū)域圖像的相似度,搜索區(qū)域圖像中相似度最高的部分作為當前幀輸入圖像目標區(qū)域圖像,基于生成式模型算法有IVT[6]算法和CSK[7]算法等.基于判別式模型算法區(qū)分目標圖像和背景圖像信息后來建立相關濾波器模板,其進行目標跟蹤時自適應能力更強且跟蹤精度更高,基于判別式模式算法有TLD[8]算法和KCF[9]算法等,以上目標跟蹤算法的提出為后續(xù)提高目標跟蹤的精度和加快目標跟蹤的速率打下了堅定的基礎.

        目標跟蹤過程中由于鏡頭的拉伸或收縮使得跟蹤目標的尺寸變大或縮小,就會導致對局部上下文區(qū)域圖像提取的特征圖中無法包含跟蹤目標的全部信息,對此Danelljan提出DSST[10]算法,該算法對局部上下文區(qū)域圖像提取單一的HOG特征圖并加入33維度尺度池,解決了目標跟蹤過程中跟蹤目標尺寸變大或縮小時對局部上下文區(qū)域圖像提取的特征圖中無法包含跟蹤目標的全部信息的問題;對局部上下文區(qū)域圖像提取的單一HOG特征圖在復雜環(huán)境下無法對跟蹤目標的外觀信息進行準確描述,對此Li提出SAMF[11]算法,該算法對局部上下文區(qū)域圖像提取多個特征進行加權融合同時加入7維度尺度池進行目標跟蹤,在大多數情況下都能對跟蹤目標可以實現準確的跟蹤.以上相關濾波目標跟蹤算法在圖像模糊和目標快速運動等復雜條件下跟蹤效果不是很理想,為此基于卷積神經網絡的目標跟蹤算法開始發(fā)揮作用,例如Song提出VITAL[12]算法,該算法使用生成對抗式網絡獲得當前幀輸入圖像中跟蹤目標的最魯棒特征和使用高代價敏感損失函數減小當前幀輸入圖像中負樣本的數量,從而使得當前幀輸入圖像中相關跟蹤器更加準確,跟蹤精度得到進一步提高;Wang提出SiamMask[13]算法,該算法在孿生網絡結構的基礎上加入了跟蹤目標分割框架,從而在當前幀輸入圖像中對目標矩形框進行更加準確的預測,就可以在局部上下文區(qū)域圖像中對跟蹤目標提取更加準確的信息,目標跟蹤精度來到一個新的高度.

        相關濾波目標跟蹤算法的跟蹤速率很快,使得目標的實時跟蹤成為可能,但相關濾波目標跟蹤算法的不足是在圖像模糊和跟蹤目標快速運動等復雜條件下跟蹤精度不高.通過卷積神經網絡對輸入圖像提取的深度特征泛化能力強,能夠很好的表示跟蹤目標的外觀和類別,從而大大提高了目標跟蹤的精度,但基于卷積神經網絡的目標跟蹤算法的不足是提取深度特征時計算復雜會導致跟蹤速率大大下降,為此本文提出核相關濾波與孿生網絡相結合的目標跟蹤算法,核相關濾波目標跟蹤算法對輸入圖像提取單一的HOG特征圖進行目標跟蹤,在大多數情況下能夠實現對目標的準確跟蹤,同時具有非常高的跟蹤速率,因此若輸入圖像幀數不為5的倍數則使用仿射HOG特征圖進行目標跟蹤從而保證目標跟蹤的速率;孿生網絡[14]對輸入圖像提取目標區(qū)域圖像特征圖和搜索區(qū)域圖像特征圖具有很強的特征表達能力,因此若輸入圖像幀數為5的倍數則使用深度特征圖進行目標位置的更正從而保證目標跟蹤的精度.

        2 核相關濾波與孿生網絡相結合的目標跟蹤算法

        2.1 全卷積孿生網絡

        在卷積神經網絡中全卷積孿生網絡是一種比較特殊的網絡結構,它由兩個網絡子結構組成,目標區(qū)域圖像對應網絡結構負責提取第一幀輸入圖像中目標區(qū)域圖像特征,搜索區(qū)域圖像對應網絡結構負責提取每一幀輸入圖像中搜索區(qū)域圖像特征,這兩個網絡子結構具有相同的權值向量和偏置向量,目標區(qū)域圖像和搜索區(qū)域圖像對應網絡結構如圖1所示.

        在全卷積孿生網絡中使用AlexNet網絡作為圖像特征提取網絡,AlexNet網絡的具體結構如表1所示.目標跟蹤過程中不需要對跟蹤目標進行分類,也不需要對圖像提取非常深層的特征,如果目標區(qū)域圖像在整個輸入圖像中所占比重非常小,對目標區(qū)域圖像提取非常深層的特征會使得跟蹤目標丟失,所以AlexNet網絡設計為五層.在AlexNet網絡中的第二層、第四層和第五層中將卷積核分為了兩組,卷積核分組的好處就是減少了AlexNet網絡中參數的個數;采用最大池化操作來減小特征圖維度的同時提取關鍵特征,只在第一個和第二個卷積層后面存在最大池化層,因為最大池化層數量較多時會使得一些關鍵特征丟失,從而影響目標跟蹤的精度;除第五個卷積層外在每一個卷積層后面采用ReLU激活函數,對特征進行非線性處理從而使其特征表達能力更強.

        圖1 目標區(qū)域圖像和搜索區(qū)域圖像對應網絡結構Fig.1 Target area image and search area image cresponding netwrok structure

        表1 AlexNet網絡的具體結構Table 1 Speific structure of the AlexNet network

        相鄰幀輸入圖像之間具有高度的相關性,本文算法將跟蹤目標在上一幀輸入圖像中的目標位置作為先驗信息,人為給定第一幀輸入圖像中目標區(qū)域圖像z并將其傳遞給孿生網絡后提取目標區(qū)域圖像特征圖φ(z),后續(xù)幀輸入圖像由跟蹤目標在上一幀輸入圖像中的目標位置確定搜索區(qū)域圖像x并將其傳遞給全卷積孿生網絡提取搜索區(qū)域圖像特征圖φ(x),然后兩個特征圖通過相關卷積操作后得到最終的熱圖f(x,z),整個過程使用如下函數表達式表示:

        f(x,z)=g(φ(x),φ(z))=φ(x)?φ(z)+b

        (1)

        上式中特征函數φ(·)表示使用已經訓練好的特征提取網絡對圖像提取深度特征,相似度量函數g(·)將相關濾波算法中二維特征圖的二維卷積操作轉換為卷積神經網絡中三維特征圖的三維卷積操作,即目標區(qū)域圖像特征圖φ(z)在搜索區(qū)域圖像特征圖φ(x)上進行滑窗操作,熱圖即搜索區(qū)域圖像中每一個子窗口圖像與目標區(qū)域圖像的相似度得分圖,在熱圖中得分越高的位置表明是目標區(qū)域的概率越大,b是一個在訓練過程中得到的二維矩陣,使得相似度量的結果更加準確.

        在全卷積孿生網絡中搜索區(qū)域圖像不需要與目標區(qū)域圖像大小相同,可以提供一個更大的搜索區(qū)域圖像作為全卷積孿生網絡的輸入并計算所有子窗口圖像與目標區(qū)域圖像的相似度.輸入大小為255×255的搜索區(qū)域圖像,經過池化層的池化操作后得到特征圖的尺寸不斷縮小,與目標區(qū)域圖像特征圖進行三維卷積操作后最終得到熱圖的大小為17×17,則在當前幀輸入圖像中無法獲得跟蹤目標的準確位置,將熱圖采用雙立方插值方式調整大小為輸入圖像大小從而求得跟蹤目標在輸入圖像中的準確位置.

        2.2 相關濾波器模板的建立和更新

        對輸入圖像中局部上下文區(qū)域圖像進行循環(huán)移位后提取HOG特征圖,在跟蹤目標沒有發(fā)生尺度變化和旋轉變形等干擾因素下HOG特征圖能夠很好的表示跟蹤目標的局部形狀信息,在大多數情況下能夠實現對目標的準確跟蹤.但是在目標跟蹤過程中跟蹤目標發(fā)生尺度變化和旋轉變形時對輸入圖像提取的HOG特征泛化能力不強并且特征表達差異很大,模型和最終相關濾波器模板更新不準確,通過HOG特征圖計算得到的目標位置不準確,誤差逐幀累積最終導致目標跟蹤失敗,為此我們引入仿射變換以解決目標在跟蹤過程中跟蹤目標發(fā)生尺度變化和旋轉變形時對輸入圖像提取的HOG特征無法準確描述跟蹤目標外觀信息的問題,常用的仿射變換如圖2所示.

        圖2 仿射變換示例圖Fig.2 Affine transformation example map

        人為給定第一幀輸入圖像中目標區(qū)域圖像,將目標區(qū)域圖像寬度和高度同時放大2.5倍后的W×H作為局部上下文區(qū)域圖像的寬度和高度,然后對局部上下文區(qū)域圖像提取HOG特征圖并采用線性插值方式將其大小調整為W/4×H/4后建立第一幀輸入圖像中相關濾波器模板:

        (2)

        式(2)中y表示大小為W/4×H/4的高斯標簽,x1表示第一幀輸入圖像中大小為W/4×H/4的HOG特征圖,k(x1,x1)表示第一幀輸入圖像中大小為W/4×H/4的HOG特征圖與其自身進行核相關計算得到第一幀輸入圖像中核相關特征圖,G1表示第一幀輸入圖像中相關濾波器模板,λ表示正則化參數.

        后續(xù)幀輸入圖像中局部上下文區(qū)域圖像,目標位置為上一幀輸入圖像中目標位置,大小為W×H不變,為了解決目標在跟蹤過程中跟蹤目標發(fā)生尺度變化和旋轉變形時對輸入圖像提取的HOG特征圖無法準確描述跟蹤目標外觀信息的問題,首先對局部上下文區(qū)域圖像進行仿射變換,具體仿射變換如下:左右旋轉8°、放大10%和縮小10%,在仿真實驗中發(fā)現進行上述仿射變換后能夠很好的解決在目標跟蹤過程中跟蹤目標發(fā)生尺度變化和旋轉變形時這兩個干擾因素導致跟蹤失敗的問題;然后對經過仿射變換后的局部上下文區(qū)域圖像提取HOG特征圖并采用線性插值方式將其大小調整為W/4×H/4后更新相關濾波器模板:

        (3)

        式(3)中xt表示當前幀輸入圖像中大小為W/4×H/4的仿射變換HOG特征圖,k(xt,xt)表示當前幀輸入圖像中大小為W/4×H/4的仿射變換特征圖與其自身進行核相關計算后得到當前幀輸入圖像中仿射變換核相關特征圖,Gt表示當前幀輸入圖像中最終相關濾波器模板,如果為第一幀輸入圖像則相關濾波器模板即為最終相關濾波器模板,Gt-1表示上一幀輸入圖像中最終相關濾波器模板,ρ表示相關濾波器模板更新參數.

        2.3 目標位置的獲取

        相鄰幀輸入圖像之間具有高度的相關性,本文算法將跟蹤目標在上一幀輸入圖像中的模型和相關濾波器模板作為先驗信息,第一幀輸入圖像中對局部上下文區(qū)域圖像提取HOG特征圖得到模型W1,后續(xù)幀輸入圖像中對局部上下文區(qū)域圖像提取仿射變換HOG特征圖并與上一幀輸入圖像中模型Wt-1進行加權計算得到模型Wt,當前幀輸入圖像中對局部上下文區(qū)域圖像提取的仿射變換HOG特征圖與上一幀輸入圖像中模型Wt-1進行核相關計算得到核相關模型k(xt,Wt-1),當前幀輸入圖像中核相關模型與上一幀輸入圖像中相關濾波器模板Gt-1進行點乘運算得到置信圖f(xt),對當前幀輸入圖像中置信圖f(xt)求最大響應得到當前幀輸入圖像中目標位置,整個過程使用如下函數表達式表示:

        (4)

        Wt=(1-ρ)Wt-1+ρxt

        (5)

        f(xt)=k(xt,Wt-1)·Gt-1

        (6)

        2.4 目標位置的更正

        仿射變換HOG特征圖能夠很好的描述在目標跟蹤過程中跟蹤目標發(fā)生尺度變化和旋轉變形時跟蹤目標的外觀信息,進一步提高了目標跟蹤的精度,但是在目標跟蹤過程中當跟蹤目標被遮擋和目標快速運動等多種因素干擾時,仿射變換HOG特征圖無法準確的描述跟蹤目標的紋理、顏色和邊緣信息,導致模型和最終相關濾波器模板更新不準確,最終獲取的目標位置發(fā)生誤差,由于后續(xù)幀輸入圖像將上一幀輸入圖像中目標位置作為先驗信息,導致后續(xù)幀輸入圖像中局部上下文區(qū)域圖像含有大量跟蹤目標以外的信息,就會導致模型和最終相關濾波器模板更新越來越不準確,誤差逐幀累積最終導致跟蹤失敗.

        為此我們在目標位置發(fā)生誤差時使用全卷積孿生網絡進行目標位置的更正,如果輸入圖像幀數為5的倍數則對局部上下文區(qū)域圖像采用線性插值方式將其大小調整為255×255后通過全卷積孿生網絡提取搜索區(qū)域圖像特征圖,搜索區(qū)域圖像特征圖φ(x)與第一幀輸入圖像中已經提取的目標區(qū)域圖像特征圖φ(z)進行相關卷積操作后得到最終的熱圖f(x,z),將熱圖中得分最高的位置作為當前幀輸入圖像目標位置,在仿真實驗中發(fā)現圖像幀數每隔5幀使用一次全卷積孿生網絡進行目標位置的更正,在保證目標跟蹤精度的前提下同時具有最高的跟蹤速率(Frame Per Second,FPS).

        使用全卷積孿生網絡進行目標位置更正后,對后續(xù)幀輸入圖像中局部上下文區(qū)域圖像提取的仿射變換HOG特征圖含有跟蹤目標的大部分信息,可以用其繼續(xù)進行目標跟蹤并具有較好的跟蹤效果.

        2.5 遮擋處理

        目標跟蹤過程中跟蹤目標被遮擋都是從某一幀輸入圖像開始逐步遮擋的,當跟蹤目標被遮擋時對該幀輸入圖像中局部上下文區(qū)域圖像提取的仿射變換HOG特征圖含有遮擋物體的大部分信息,用其對模型和最終相關相關濾波器模板進行更新會使得模型和最終相關濾波器模板被嚴重污染,在后續(xù)幀輸入圖像中無法再用其對目標進行準確的跟蹤.

        相鄰幀輸入圖像之間具有高度的相關性,對當前幀輸入圖像中置信圖求最大響應得到的最大響應值反應了上一幀輸入圖像中最終相關濾波器模板與當前幀輸入圖像中局部上下文區(qū)域圖像的相似程度,如果相鄰兩幀輸入圖像中都沒有出現跟蹤目標被遮擋的情況,那么在相鄰兩幀輸入圖像中最大響應值變化不大,對當前幀輸入圖像中局部上下文區(qū)域圖像提取仿射變換HOG特征圖進行目標位置的計算時可以以此判斷跟蹤目標是否被遮擋:

        Hr= Ht-Ht-1

        (7)

        式(7)中Ht表示當前幀輸入圖像中最大響應值,Ht-1表示上一幀輸入圖像中最大響應值,Hr表示兩者的差值.

        當Hr≥0.2時表示當前幀輸入圖像中跟蹤目標很大可能被遮擋,對局部上下文區(qū)域圖像提取的仿射變換HOG特征圖含有大量跟蹤目標以外的信息,通過對置信圖求最大響應得到的目標位置不可信,則將上一幀輸入圖像中目標位置作為當前幀輸入圖像中目標位置,同時當前幀輸入圖像中模型和最終相關濾波器模板不更新.

        當前幀輸入圖像中搜索區(qū)域圖像特征圖與第一幀輸入圖像中已經提取好的目標區(qū)域特征圖進行相關卷積操作得到最終的熱圖,對當前幀輸入圖像中局部上下文區(qū)域圖像提取搜索區(qū)域圖像特征圖進行目標位置的更正時可以根據熱圖中的最高分HS來判斷跟蹤目標是否被遮擋,若HS≤0.2則表示當前幀輸入圖像中搜索區(qū)域圖像中的每一個子窗口圖像與第一幀輸入圖像中的目標區(qū)域圖像相似度都很低,那么跟蹤目標很大可能被遮擋,通過對熱圖求最高分得到的目標位置不可信,則將上一幀輸入圖像中目標位置作為當前幀輸入圖像中目標位置.

        2.6 核相關濾波與孿生網絡相結合的目標跟蹤算法流程

        本文算法整體流程如圖3所示.

        1)人為給定第一幀輸入圖像中目標區(qū)域圖像,然后確定局部上下文區(qū)域圖像后對其提取HOG特征圖并用其進行相關濾波器模板的建立,同時采用線性插值方式將局部上下文區(qū)域圖像大小調整為127×127后作為目標區(qū)域圖像傳遞給全卷積孿生網絡提取目標區(qū)域圖像特征圖;

        2)后續(xù)幀輸入圖像中將上一幀輸入圖像中目標位置作為先驗信息,如果輸入圖像幀數不為5的倍數則對局部上下文圖像提取仿射變換HOG特征圖進行目標位置的計算,同時加入遮擋處理來自適應獲得當前幀輸入圖像目標位置;如果輸入圖像幀數為5的倍數則采用線性插值方式將局部上下文區(qū)域圖像大小調整為255×255后作為搜索區(qū)域圖像傳遞給全卷積孿生網絡提取搜索區(qū)域圖像特征圖進行目標位置的更正,同時加入遮擋處理來自適應獲得當前幀輸入圖像目標位置;

        圖3 核相關濾波與孿生網絡相結合的目標跟蹤算法流程圖Fig.3 Target tracking algorithm combining kernel correaltion filter and siamese network flow chart

        3)根據遮擋處理的結果自適應更新模型和最終相關濾波器模板;

        4)重復步驟2和步驟3,直到最后一幀輸入圖像.

        3 實驗結果與分析

        為了驗證本文算的跟蹤精度和跟蹤速率,本文算法與CSK算法、SAMF算法、TLD算法、DSST算法和KCF算法進行對比分析.測試視頻序列為OBT50[15],實驗平臺為Windows 10操作系統(tǒng)、Matlab2016a、Visual Stadio 2015和CUDA9.0,使用Matconvnet工具包開發(fā)卷積神經網絡,硬件環(huán)境為GTX1060顯卡和i7-8750處理器,在Matlab2016a上完成代碼的編寫和仿真實驗.

        為了全面評估本文算法的性能,本文使用距離誤差成功率、重疊度成功率和跟蹤速率作為跟蹤結果的評估指標.

        1)距離誤差是跟蹤算法輸出目標位置與人工給定目標位置的距離,距離誤差成功率是距離誤差小于距離誤差閾值時在某一個視頻序列中的圖像數量與該視頻序列中所有圖像數量的比值.

        2)重疊度是跟蹤算法輸出目標區(qū)域和人工給定目標區(qū)域的重疊面積與跟蹤算法輸出目標區(qū)域和人工給定目標區(qū)域的面積之和的比值,重疊度成功率是重疊度大于重疊度閾值時在某一個視頻序列中的的圖像數量與該視頻序列中所有圖像數量的的比值.

        3)跟蹤速率是跟蹤算法在1秒內可以跟蹤的圖像幀數.

        從圖4和圖5中可以看出本文算法對于跟蹤目標在各種干擾因素下的跟蹤精度超過當前主流相關濾波跟蹤算法,說明了圖像幀數每隔5幀使用一次全卷積孿生網絡進行目標位置的更正和根據遮擋處理的結果自適應獲得當前幀輸入圖像目標位置并自適應更新模型和最終相關濾波器模板的算法是有效的.

        圖4 不同算法在OTB50數據集上距離誤差成功率曲線圖Fig.4 Distance error success rate graph of diffenent algorithm on OTB50 dataset

        圖5 不同算法在OTB50數據集上重疊度成功率曲線圖Fig.5 Overlap success rate graph of diffenent algorithm on OTB50 dataset

        在保證目標跟蹤精度的前提下同時具有較高跟蹤速率的算法是優(yōu)秀的,表2是本文算法與對比算法在OTB50數據集上平均跟蹤速率,從表2和圖4以及圖5中數據我們知道CSK算法的平均跟蹤速率最快但跟蹤精度最低,說明CSK算法在某些干擾因素下無法對跟蹤目標形成有效的跟蹤;KCF算法的平均跟蹤速率次之且在一定干擾因素下能夠準確的跟蹤目標;由于本文算法要與其余5種相關濾波目標跟蹤算法進行對比,因此本文算法對輸入圖像幀數為{n|n∈[1,5]}的倍數局部上下文區(qū)域圖像提取搜索區(qū)域圖像特征圖進行目標位置的更正時跟蹤精度都是最高的,隨著n的增大跟蹤精度會下降,但跟蹤速率會加快;本文算法對輸入圖像幀數為{n|n≥6}的倍數局部上下文區(qū)域圖像提取搜索區(qū)域圖像特征圖進行目標位置的更正時跟蹤精度不再是最高的,所以本文算法選擇對輸入圖像幀數為5的倍數的局部上下文區(qū)域圖像提取搜索區(qū)域圖像特征圖進行目標位置的更正時平均跟蹤速率位于第三位但在各種干擾因素下的跟蹤精度最高.本文算法的平均跟蹤速率位于第三位但相比于剩余算法而言仍然很快,說明本文算法在各種干擾因素下能夠實現對目標的準確跟蹤并且在保證目標跟蹤精度的前提下具有滿足跟蹤目標實時跟蹤要求的跟蹤速率.

        表2 不同算法在OTB50數據集上的平均跟蹤速率(frame/s)Table 2 Average tracking rate of defferent algorithm on OTB50 dataset(frame/s)

        圖6 不同算法在OTB50數據集上的部分視頻序列實驗結果Fig.6 Experimental results of partial video sequences of different algorithm on OTB50 dataset

        圖6為本文算法與對比算法在OTB50數據集上部分測試視頻序列的實驗結果.針對目標被遮擋我們選用圖6(a)視頻序列,在該視頻序列中被跟蹤目標是一輛運行的汽車,當汽車被樹木遮擋后本文算法依然能夠準確的跟蹤目標,說明本文算法中根據遮擋處理的結果自適應獲得當前幀輸入圖像目標位置是有效的.針對跟蹤目標尺寸變大或縮小我們選用圖6(b)視頻序列,在該視頻序列中被跟蹤目標是一只玩具狗,當玩具狗尺寸變大或縮小時本文算法可以對其進行準確的跟蹤,說明本文算法中對局部上下文區(qū)域圖像提取仿射變換HOG特征圖進行目標跟蹤的策略是可行的.針對目標快速運動我們選用圖6(c)視頻序列,在該視頻序列中被跟蹤目標是一個正在跳繩的男孩,男孩在快速跳繩過程中本文算法始終能夠準確追蹤到跳繩男孩的臉部,說明本文算法能夠很好的解決目標快速運動這一干擾因素.針對光照變化我們選用圖6(d)視頻序列,在該視頻序列中被跟蹤目標是一位歌手,歌手在唱歌過程中光照強度發(fā)生變化后本文算法能夠對光照強度變化這一干擾因素進行有效處理并準確跟蹤到歌手的臉部.針對目標旋轉我們選用圖6(e)視頻序列,在該視頻序列中被跟蹤目標是一輛運行的摩托車,摩托車在快速旋轉過程中其余算法無法準確跟蹤摩托車,本文算法能夠對快速旋轉這一干擾因素進行有效處理并對摩托車進行準確的跟蹤.

        4 結束語

        在目標跟蹤過程中保證目標跟蹤精度的同時加快跟蹤速率,本文提出了一種核相關濾波與孿生網絡相結合的目標跟蹤算法,若輸入圖像幀數不為5的倍數則對局部上下文區(qū)域圖像提取仿射變換HOG特征圖進行目標位置的計算,同時加入遮擋處理來自適應獲得當前幀輸入圖像目標位置;若輸入圖像幀數為5的倍數則對局部上下文區(qū)域圖像提取搜索區(qū)域圖像特征圖進行目標位置的更正,同時加入遮擋處理來自適應獲得當前幀輸入圖像目標位置,針對遮擋處理的結果自適應更新模型和最終相關濾波器模板.在仿真實驗中發(fā)現本文算法在各種干擾因素下能夠實現對跟蹤目標的準確跟蹤,在保證目標跟蹤精度的前提下具有滿足跟蹤目標實時跟蹤要求的跟蹤速率,如何進一步提高跟蹤速率是后面工作的重點.

        猜你喜歡
        跟蹤目標濾波器卷積
        基于無擾濾波器和AED-ADT的無擾切換控制
        基于3D-Winograd的快速卷積算法設計及FPGA實現
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        開關電源EMI濾波器的應用方法探討
        電子制作(2018年16期)2018-09-26 03:26:50
        基于傅里葉域卷積表示的目標跟蹤算法
        基于 Android的自學習視覺跟蹤系統(tǒng)設計?
        基于圖割理論的尺度自適應人臉跟蹤算法
        計算機應用(2017年4期)2017-06-27 08:10:42
        連續(xù)同色調背景下運動目標自適應跟蹤
        基于TMS320C6678的SAR方位向預濾波器的并行實現
        基于卡爾曼和圖像信息量的Mean Shift改進跟蹤算法
        電視技術(2015年5期)2015-06-22 14:40:00
        欧洲乱码伦视频免费| 精品人妻少妇一区二区中文字幕| 国产精品久久久久久久y| 女同久久精品国产99国产精| 国产乱淫h侵犯在线观看| 久久精品国产久精国产爱| 性裸交a片一区二区三区| 国产精品久久久久久人妻精品 | 日韩精品极品免费在线视频| 日韩精品在线视频一二三| 亚洲国产成人精品无码区在线秒播 | 亚洲sm另类一区二区三区| 国产乱色精品成人免费视频| 成人无码视频在线观看网站| 国产av一区二区三区国产福利| 亚洲精品久久蜜桃av| 狠狠色噜噜狠狠狠777米奇| 人妻中文无码久热丝袜| 无码片久久久天堂中文字幕| 国产女主播福利一区在线观看| 日本加勒比精品一区二区视频| 国产成人亚洲综合| 成人白浆超碰人人人人| 亚洲高清视频在线播放| 精品一区2区3区4区| 日本精品一区二区高清| 亚洲人精品亚洲人成在线| 国产一区二区三区小说| 中文字幕二区三区在线| 亚洲精品有码日本久久久| 巨大巨粗巨长 黑人长吊| 亚洲熟女少妇一区二区| 国产高清丝袜美腿视频在线观看| 免费在线视频亚洲色图| 久久久久亚洲av无码专区喷水| 欧美v亚洲v日韩v最新在线| 大陆啪啪福利视频| 国产精品自拍午夜伦理福利| 国产欧美va欧美va香蕉在| 最近免费中文字幕| 蜜桃视频色版在线观看|