亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于Kalman濾波與樣本加權(quán)的壓縮感知跟蹤算法

        2019-12-05 08:35:54于德鑫曹曉杰楊敏趙鵬德
        智能計算機與應(yīng)用 2019年5期
        關(guān)鍵詞:卡爾曼壓縮感知準確性

        于德鑫 曹曉杰 楊敏 趙鵬德

        摘 要:針對壓縮感知跟蹤算法在目標移動過快時易丟失跟蹤目標和跟蹤準確性不高的缺點,提出了改進的壓縮感知跟蹤算法。該算法引入加權(quán)函數(shù)輔助判斷正負樣本,使用加權(quán)后的樣本計算特征找到下一幀的目標中心位置,當目標移動過快時,使用卡爾曼濾波對當前幀目標位置進行預(yù)測。對不同測試序列的跟蹤結(jié)果表明,改進后算法能夠穩(wěn)定跟蹤目標,有效地解決了目標移動過快時易丟失跟蹤目標的問題,并且具有較高的準確性。

        關(guān)鍵詞: 壓縮感知;加權(quán)函數(shù);卡爾曼;準確性

        【Abstract】 Aiming at the shortcomings of the compressed sensing tracking algorithm, which was easy to lose the tracking target and has the low tracking accuracy when the target moved too fast, an improved compressed sensing tracking algorithm is proposed. The algorithm introduces a weighting function to assist in judging positive and negative samples, and uses the weighted sample to calculate features to find the target center position of the next frame. Kalman filter is used to predict the current frame target position when the target moved too fast. The tracking results of different test sequences show that the improved algorithm can stably track the target, effectively solve the problem that the target is easy to lose the tracking target when moving too fast, and obtains high accuracy.

        【Key words】 ?compressive sensing; weighted function; Kalman; accuracy

        0 引 言

        目標跟蹤技術(shù)是計算機視覺領(lǐng)域中最熱門的研究課題之一[1-3],主要應(yīng)用于安全監(jiān)控、人機交互、智能車輛、軍事、交通運輸、醫(yī)療診斷等領(lǐng)域,具有重要的研究意義和應(yīng)用價值。自二十一世紀以來,目標跟蹤技術(shù)受到國內(nèi)外廣大研究學者的關(guān)注,并提出了大量的優(yōu)秀算法,如TLD[4]、KCF[5]、MEEM[6]、HCF[7]、STRUCK[8]、MDNET[9]、MCPF[10]及LMCF[11]算法等,但是現(xiàn)如今在目標跟蹤領(lǐng)域仍然有大量的難題,如何應(yīng)對不斷變化的光照、目標被遮擋問題、目標發(fā)生形變、尺度不斷變化以及目標所處復(fù)雜環(huán)境等因素的影響,從而實現(xiàn)準確、穩(wěn)定、實時的目標跟蹤,這一系列問題是亟需解決的。

        時下,立足于準確、穩(wěn)定目標跟蹤的研究,Zhang等人[12]將壓縮感知引入到目標跟蹤中,提出了一種基于壓縮感知的跟蹤算法(CT)。該跟蹤算法首先依據(jù)壓縮感知理論對圖像樣本特征進行降維,然后采用樸素貝葉斯分類器對降維后的特征進行分類。該算法雖然簡單高效,但是在復(fù)雜環(huán)境下和目標快速移動時,容易跟丟目標,且跟蹤準確性不好。

        針對CT跟蹤算法的不足,本文在CT跟蹤算法框架下做出如下改進:在采集正負樣本時,引入加權(quán)函數(shù)輔助判斷正負樣本,很大程度上提高了判斷正負樣本的正確率;當目標運動過快時,用卡爾曼濾波算法預(yù)測當前幀目標的位置,解決目標運動過快而導(dǎo)致的目標跟丟問題,并保證跟蹤的準確性。

        1 CT跟蹤算法簡介

        1.1 CT跟蹤算法特征提取

        3 算法設(shè)計流程

        研究中,將給出本文改進CT算法的跟蹤流程,具體如下:

        (1)手動選取第一幀跟蹤目標。

        (2)在當前第t幀圖像的目標中心鄰近區(qū)域選取目標樣本,距離中心較遠位置選取背景樣本,引入加權(quán)函數(shù)輔助采集正負樣本,距離目標中心越近的樣本將被賦予更大的權(quán)重,若被賦予的權(quán)重小于給定閾值則判定為背景樣本。

        (3)計算目標樣本和背景樣本的特征。

        (4)使用樸素貝葉斯分類器對每個特征向量進行分類,最大分類得分的特征向量對應(yīng)的目標位置作為跟蹤結(jié)果。

        (5)采集目標樣本和背景樣本并更新分類器。

        (6)判斷目標移動是否過快:若是,則用卡爾曼濾波算法預(yù)測當前幀目標位置;若否,則跳轉(zhuǎn)到(2)進行下一幀處理。

        改進CT算法的設(shè)計流程如圖2所示。

        4 實驗結(jié)果與分析

        為了驗證改進后算法的有效性,將改進后算法和CT算法在2個已公開的標準測試序列上進行對比實驗。在Matlab上通過對比實驗,得到如圖3和圖4所示的跟蹤結(jié)果,其中淺色框是CT算法跟蹤結(jié)果,深色框為改進后算法跟蹤結(jié)果。

        圖3是部分Girl測試序列的結(jié)果,在序列Girl中存在目標姿態(tài)變化、目標遮擋和目標移動過快等干擾因素。在CT算法跟蹤過程中,目標在第2幀就開始發(fā)生了輕微偏移。隨著跟蹤幀數(shù)增加,目標姿態(tài)和大小不斷變化,當跟蹤到第55幀時,改進前后的算法都發(fā)生了嚴重漂移,但是跟蹤到第257幀時,改進后的跟蹤算法可以準確跟蹤到目標,CT算法卻仍然發(fā)生漂移,在第435幀時,目標出現(xiàn)遮擋情況,2種算法都沒能很好地跟蹤到目標。

        圖4是部分Basketball測試序列的結(jié)果,在序列Basketball中存在背景復(fù)雜、目標遮擋和目標移動過快等干擾因素。改進前后算法在前73幀中都能夠穩(wěn)定且準確地跟蹤目標。由于目標姿態(tài)不斷變化,目標移動加快,當跟蹤到第172幀時,CT算法開始出現(xiàn)向上漂移的趨勢。直到跟蹤到第242幀時,CT算法出現(xiàn)嚴重漂移,改進后算法仍然可以準確跟蹤目標。在第280幀出現(xiàn)與目標相似的背景時,CT算法嚴重跟蹤漂移,出現(xiàn)跟蹤錯誤目標的趨勢,到第304幀時,CT算法出現(xiàn)跟丟目標情況,而改進后算法卻始終穩(wěn)定且準確地跟蹤目標。

        為定量評估本文算法的跟蹤性能,本文基于中心位置誤差(Center Location Error)評價指標對本文算法與原始CT跟蹤算法進行定量的對比分析,中心位置誤差主要是指跟蹤所得目標框的中心與真實基準中心之間的歐式距離[16]。沒有跟丟目標的前提下,在CT算法中,Girl序列平均中心位置誤差為18.99像素,Basketball序列為23.03像素;在改進后的CT算法中,Girl序列為15.66像素,Basketball序列為9.69像素。為了能夠更直觀地分析2種算法的跟蹤性能,圖5和圖6給出了改進前后算法在2個序列中心位置誤差的對比圖。

        5 結(jié)束語

        本文針對CT算法的缺點,提出了基于卡爾曼濾波與樣本加權(quán)的壓縮感知跟蹤算法。在采集正負樣本時,引入加權(quán)函數(shù)輔助判斷正負樣本,解決了CT算法常常把帶有背景信息的樣本判定為正樣本的缺點,很大程度上提高了判斷正負樣本的正確率;當目標運動過快時,用卡爾曼濾波算法預(yù)測當前幀目標的位置,解決目標運動過快而導(dǎo)致目標跟丟的問題,并保證跟蹤的準確性。從對比實驗的評價結(jié)果來看,改進后算法能夠有效跟蹤目標,并且穩(wěn)定性和準確性均有所提高。但改進后算法并不能很好解決目標遮擋因素的干擾,故下一步研究重點是如何克服目標遮擋問題。

        參考文獻

        [1]盧湖川,李佩霞,王棟. 目標跟蹤算法綜述[J]. 模式識別與人工智能,2018,31(1):61-76.

        [2]WU Yi,LIM J,YANG M H. Online object tracking:A benchmark[C]// IEEE Conference on Computer Vision and Pattern Recognition. Portland, OR, USA:IEEE,2013:2411-2418.

        [3]管皓,薛向陽,安志勇. 在線單目標視頻跟蹤算法綜述[J].小型微型計算機系統(tǒng),2017,38(1):147-153.

        [4]KALAL Z,MIKOLAJCZYK K,MATAS J. Tracking-learning-detection[J]. 2013 IEEE Transactions on Pattern Analysis and Machine Intelligence,2012,34(7):1409-1422.

        [5]HENRIQUES J F,CASEIRO R,MARTINS P,et al. High-speed tracking with kernelized correlation filters[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2015,37(3):583-596.

        [6]ZHANG Jianming,MA Shugao,SCLAROFF S. Meem:robust tracking via multiple experts using entropy minimization[C]// PAJDLA D, PAJDLA T, SCHIELE B, et al. Computer Vision-ECCV 2014. ECCV 2014. Lecture Notes in Computer Science. Cham:Springer, 2014,8694:188-203.

        [7]MA Chao,HUANG Jiabin,YANG Xiaokang,et al. Hierarchical convolutional features for visual tracking[C]// IEEE International Conference on Computer Vision.Santiago,Chile:IEEE,2015:3074-3082.

        [8]HARE S,GOLODETZ S,SAFFARI A,et al. Struck:Structured output tracking with kernels[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2016,38(10):2096-2109.

        [9]NAM H,HAN B. Learning multi-domain convolutional neural networks for visual tracking[C]// IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, Nevada, USA:IEEE,2016:4293-4302.

        [10]ZHANG Tianzhu,XU Changsheng,YANG M H. Multi-task correlation particle filter for robust object tracking[C]// 2017.IEEE Conference on Computer Vision & Pattern Recognition.Honolulu, HI, USA:IEEE,2017:4819-4827.

        [11]WANG Mengmeng,LIU Yong,HUANG Zeyi. Large margin object tracking with circulant feature maps[C]// IEEE Conference on Computer Vision and Pattern Recognition.Honolulu,HI:IEEE,2017:4021-4029

        [12]ZHANG K H,ZHANG L,YANG M H. Real-time compressive tracking[C]//Proceedings of the 12th European Conference on Computer Vision. Florence, Italy:IEEE,2012,7574 (1):864-877.

        [13]張新堃,黃山. 結(jié)合Kalman濾波的時空上下文目標跟蹤算法[J]. 電光與控制,2018,25(11):102-105,119.

        [14]張偉麗,江春華,郝宗波. 基于改進的均值漂移和卡爾曼濾波的目標跟蹤算法[J]. 計算機應(yīng)用與軟件,2014,31(5):240-243.

        [15]趙廣輝,卓松,徐曉龍. 基于卡爾曼濾波的多目標跟蹤方法[J].計算機科學,2018,45(8):253-257,276.

        [16]徐建強,陸耀. 一種基于加權(quán)時空上下文的魯棒視覺跟蹤算法[J].自動化學報,2015,41(11):1901-1912.

        猜你喜歡
        卡爾曼壓縮感知準確性
        淺談如何提高建筑安裝工程預(yù)算的準確性
        狀態(tài)變換擴展卡爾曼平滑算法在AUV水下航跡修正中的應(yīng)用
        基于匹配追蹤算法的乳腺X影像的壓縮感知重構(gòu)
        淺析壓縮感知理論在圖像處理中的應(yīng)用及展望
        基于ADM的加權(quán)正則化的塊稀疏優(yōu)化算法
        基于卡爾曼算法的動力鋰電池SOC估算
        壓縮感知在無線傳感器網(wǎng)絡(luò)中的應(yīng)用
        科技視界(2016年10期)2016-04-26 08:29:08
        基于卡爾曼預(yù)測的逆變焊接電源信號處理方法
        焊接(2016年4期)2016-02-27 13:04:27
        美劇翻譯中的“神翻譯”:準確性和趣味性的平衡
        論股票價格準確性的社會效益
        绝顶高潮合集videos| 无码天堂在线视频| 亚洲图文一区二区三区四区| 日本高清一道本一区二区| 肉体裸交137日本大胆摄影| 亚洲最大天堂无码精品区| av在线免费观看你懂的| 国产自拍91精品视频| 亚洲国产欧美在线观看| 久久久精品人妻一区亚美研究所 | 久久99国产精一区二区三区| 亚洲 欧美 综合 另类 中字| 在线不卡中文字幕福利| 青青草成人免费在线观看视频| 又粗又硬又大又爽免费视频播放| 久久精品国产9久久综合| 日韩国产自拍精品在线| 99国产精品久久一区二区三区| 中文字幕日韩人妻不卡一区| 久草视频福利| 午夜国产小视频在线观看黄| 97精品一区二区三区| 亚洲精品美女久久久久99| 日韩国产成人精品视频| 国产女主播福利一区二区 | 女优av性天堂网男人天堂| 国产在热线精品视频| 亚洲成人小说| 极品美女尤物嫩模啪啪| 性av一区二区三区免费| 天天综合网天天综合色| 无码国产精品第100页| 精品国产av一区二区三四区| 成年免费a级毛片免费看| 国产精品白浆一区二小说| 亚洲福利第一页在线观看| 国产av一区二区三区性入口| 久久久天堂国产精品女人| 亚洲伦理一区二区三区| 亚洲中文字幕高清av| 97人人模人人爽人人少妇|