亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        結合正樣本集的核相關濾波跟蹤算法

        2018-12-17 08:20:02偉,黃
        電光與控制 2018年12期

        劉 偉,黃 山

        (四川大學,成都 610065)

        0 引言

        目標跟蹤技術是計算機視覺領域的重要研究課題,其在智能視頻監(jiān)控、人機交互、機器人視覺導航、虛擬現(xiàn)實以及醫(yī)學診斷等諸多方面均有廣泛的應用前景[1-3]。但在實際的場景中,視頻中的噪聲、目標尺度變化、目標形變、遮擋、光照變化等問題的存在,會嚴重影響目標跟蹤的準確性,設計一個具有精確性、快速性的目標跟蹤算法仍然是非常困難的。為解決這些問題,各種跟蹤算法相繼被提出。目標跟蹤算法通常可分為生成式和判別式[4]兩類。其中,生成式跟蹤算法是不斷地去搜索與目標最相似的區(qū)域,不依賴目標模型。如文獻[5]提出的時空上下文視覺跟蹤(Fast Tracking via Spatio-Temporal Context Learning,STC)算法,該算法通過貝葉斯框架對要跟蹤的目標及其局部上下文區(qū)域的時空關系進行建模,得到目標和其周圍區(qū)域低級特征的統(tǒng)計相關性。然后綜合這個時空關系和生物視覺系統(tǒng)來評估新的一幀中目標出現(xiàn)位置的置信圖,置信最大的位置就是所得到的新的一幀的目標位置。判別式跟蹤算法是將跟蹤過程看作一個分類問題,通過已有的視頻序列在線或離線訓練分類器,再用訓練好的分類器計算下一幀目標位置。文獻[6]提出的一種最小平方誤差和輸出(Minimum Output Sum of Squared Error,MOSSE)跟蹤算法,首次將相關濾波應用到目標跟蹤領域并取得了很好的效果;文獻[7]提出基于核循環(huán)結構檢測(Circulant Structure of Tracking-by-Detection with Kernels,CSK)跟蹤算法,創(chuàng)新地采用了循環(huán)結構編碼密集采樣并用核方法訓練正則化最小二乘非線性分類器;之后文獻[8]在核相關濾波(Kernelized Correlation Filter,KCF)跟蹤算法中使用梯度方向直方圖(Histogram of Oriented Gradients,HOG)特征對CSK進行改進。

        KCF跟蹤算法沒有檢測目標遮擋的機制,所以無法應對目標嚴重遮擋的問題;模型更新的學習參數(shù)固定,缺乏適應性較強的模型更新策略等。為解決上述問題,提出了結合正樣本集的核相關濾波算法。

        1 核相關濾波(KCF)跟蹤算法

        KCF跟蹤算法的核心思想[8-9]是利用循環(huán)位移進行密集采樣得到正、負樣本。使用脊回歸來訓練分類器,并利用循環(huán)矩陣在傅里葉空間可對角化的性質將矩陣的運算轉化為元素的點乘,大大降低了算法的運算量,提高了實時性。

        1.1 循環(huán)矩陣

        循環(huán)矩陣是由目標圖像塊進行循環(huán)位移得到的正、負樣本組成的矩陣。其中循環(huán)位移操作的變換矩陣為

        (1)

        通過n次移位可以再次得到原來的信號,是一個循環(huán)的過程,因此可以計算出一個循環(huán)移位的全集為

        {Pux|u=0,1,…,n-1}

        (2)

        式中:x為感興趣的圖像塊,為敘述簡便,以單通道、一維圖像說明,即x為n×1的向量;u表示循環(huán)移位的次數(shù)。將循環(huán)移位的全集寫成矩陣形式即循環(huán)矩陣X,為

        (3)

        循環(huán)矩陣有一個很好的性質,即任意循環(huán)矩陣經過傅里葉變換后都是對角矩陣。循環(huán)矩陣可以表示為

        (4)

        1.2 脊回歸模型分類器

        相關濾波目標跟蹤算法采用脊回歸來訓練分類器。對所有的訓練樣本X和期望輸出Y通過優(yōu)化目標函數(shù)

        (5)

        可求得分類器權重為

        w=(XHX+λI)-1XHY

        (6)

        式中:f為分類器函數(shù);xi和yi分別是第i個訓練樣本和對應的輸出;λ為正則化參數(shù)防止過擬合。

        a=(K+λI)-1Y

        (7)

        式中:I是單位矩陣;K為核矩陣,其形式為Kij=k(xi,xj)=〈φT(xi),φ(xj)〉,〈,〉為點積運算,k為核函數(shù)。將式(7)變換到傅里葉頻域可得

        (8)

        1.3 分類器的快速檢測

        利用線性分類器檢測輸入圖像z求得其響應,其方程可寫為f(z)=wTz。利用核函數(shù)進行映射,則方程為

        (9)

        式中,xi為訓練樣本。利用循環(huán)矩陣性質及核技術,可簡化計算得到

        (10)

        式中:F-1表示傅里葉逆變換;⊙為點乘運算。然后查找所有測試樣本響應f(Z)的最大響應位置作為目標的預測位置ppre_ppos。

        1.4 參數(shù)更新

        (11)

        2 結合正樣本集的核相關濾波跟蹤算法

        2.1 正樣本集的建立

        正樣本集就是在跟蹤過程中采集到的正樣本的一個集合,正樣本集定義為

        P_s={pos_si|i=1,2,…,n}

        (12)

        式中:P_s為正樣本集;pos_si為正樣本集中的正樣本。

        以每次通過式(10)求得的目標預測位置為中心進行3×3的采樣,采樣框的大小為初始目標框的大小x×y,將得到9個待測樣本,測試樣本定義為

        T_s={test_sj|j=1,2,…,9}

        (13)

        式中:T_s為測試樣本集;test_sj為測試樣本集中的測試樣本。

        利用歸一化互相關(Normalized Cross Correlation,NCC)算法[10-11]對正樣本集中的正樣本與待測樣本集中的待測樣本進行相似度計算,來判斷待測樣本是否為正樣本,NCC算式為

        (14)

        (15)

        通過式(14)可以得到正樣本集與待測樣本集的相似度矩陣Sscore,計算相似度矩陣Sscore中的最大值max_Sscore及相應的測試樣本ttest_smax,即

        max_Sscore=max(Sscore)

        (16)

        當max_Sscore的值大于0.85時,將相應的測試樣本加入正樣本集中,即

        (17)

        如果max_Sscore大于0.75,將測試樣本ttest_smax在原圖中對應的位置作為目標最終的預測位置Ppos,否則目標最終的預測位置Ppos就為Ppre_Ppos。

        2.2 遮擋判斷及參數(shù)更新

        從上文計算可以得到相似度矩陣中的最大值max_Sscore,當max_Sscore>0.85時,目標未遮擋;當0.75

        (18)

        2.3 算法流程

        結合上文的算法改進分析,在KCF跟蹤算法的基礎上,本文所提出的跟蹤算法流程如圖1所示。

        圖1 跟蹤算法流程圖Fig.1 Flow chart of the tracking algorithm

        3 實驗結果與分析

        3.1 跟蹤效果展示

        實驗的硬件環(huán)境為Intel 酷睿i5 3210M 2.5 GHz CPU,8 GiB RAM;軟件環(huán)境為Matlab2015a。下面展示了視頻1(分辨率像素大小為640×480,共250幀)、視頻2(分辨率像素大小為352×288,共307幀)。跟蹤結果如圖2、圖3所示。

        圖2 視頻1跟蹤結果Fig.2 Tracking results of Video 1

        圖3 視頻2跟蹤結果Fig.3 Tracking results of Video 2

        3.2 跟蹤結果分析

        3.2.1 跟蹤準確度分析

        利用跟蹤目標的中心位置的坐標與實際位置中心坐標的差的絕對值,作為跟蹤結果準確性的度量方法。實驗對視頻1和視頻2的跟蹤位置的橫、縱坐標進行了分析,如圖4、圖5所示。

        圖4 視頻1跟蹤位置曲線圖Fig.4 Tracking position curve of Video 1

        圖5 視頻2跟蹤位置曲線圖Fig.5 Tracking position curve of Video 2

        圖4與圖5分別展示了2個視頻在KCF算法與本文算法下目標橫縱坐標與實際橫縱坐標位置曲線。在圖4中的第110幀和圖5中的第65幀附近,目標被遮擋,KCF算法發(fā)生了嚴重的漂移,跟蹤位置遠離了目標。而本文算法在目標發(fā)生遮擋后,有小幅度的漂移,但目標再次出現(xiàn)時,能夠迅速地再次跟蹤上目標。對于視頻1,KCF算法得出的跟蹤結果與目標實際位置平均偏差(29,154)像素,而本文算法的平均偏差為(4.5,11.2)像素;對于視頻2,平均偏差分別為(17.5,86.1),(2.8,3.9)像素。

        3.2.2 算法實時性分析

        兩種算法的跟蹤速度見表1。

        表1 跟蹤速度

        跟蹤速度是由幀數(shù)與跟蹤時長的比值定義的??梢园l(fā)現(xiàn)KCF算法的跟蹤速度都大于本文算法的跟蹤速度,雖然本文算法的跟蹤速度有所降低,但是沒有影響到視覺的流暢性,仍能滿足實時性的要求。

        4 結束語

        本文提出了建立正樣本集,利用正樣本集與待測樣本集的相似度來建立目標遮擋的判斷機制,有效地減少了把遮擋物當作目標的情況,并且采用了多段學習率的更新方式,提高了模型的準確性。本文算法的不足之處是:目標尺度不能自適應以及對目標嚴重形變的魯棒性不好,這些都是下一步的研究重點。

        免费a级毛片又大又粗又黑| 亚洲三级香港三级久久| 国产乱子伦精品免费女| 久久亚洲国产精品五月天| 粉嫩av一区二区在线观看| 大岛优香中文av在线字幕| 在线小黄片视频免费播放| 男女做羞羞事的视频网站| 四虎永久在线精品免费一区二区| 无码人妻一区二区三区兔费 | 一个人午夜观看在线中文字幕| 亚洲av乱码一区二区三区林ゆな| 欧美亚洲国产一区二区三区| 天堂…在线最新版资源| 国产白嫩美女在线观看| 综合网在线视频| 国产精品不卡无码AV在线播放| 亚洲综合天堂av网站在线观看| 国产不卡精品一区二区三区| 人妻 偷拍 无码 中文字幕| 中文www新版资源在线| 国产精品成人99一区无码| 婷婷丁香五月亚洲| 玩弄人妻奶水无码AV在线| 99久久婷婷国产精品网| 色欲一区二区三区精品a片| 亚洲色www成人永久网址| 三上悠亚免费一区二区在线| 亚洲天天综合色制服丝袜在线 | 少妇性l交大片免费快色| 青春草在线视频观看| 无遮挡边摸边吃奶边做视频免费| 中文字幕福利视频| 精品一区二区三区影片| 中国亚洲av第一精品| 久久精品丝袜高跟鞋| 天天躁日日躁狠狠久久| 少妇高潮惨叫喷水在线观看| 亚洲V无码一区二区三区四区观看 久久精品国产亚洲综合色 | 亚洲天堂中文| 亚洲中文字幕有码av|