亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于Kalman預(yù)測(cè)器的CT多特征加權(quán)目標(biāo)跟蹤算法

        2016-04-12 00:00:00任紅格劉偉民李福進(jìn)張春磊
        現(xiàn)代電子技術(shù) 2016年12期

        摘 要: 針對(duì)CT的目標(biāo)跟蹤算法,在外界環(huán)境光照改變、目標(biāo)姿態(tài)變化及目標(biāo)發(fā)生遮擋時(shí)出現(xiàn)跟蹤飄移或丟失目標(biāo)等問題,提出一種基于Kalman預(yù)測(cè)器的CT多特征加權(quán)目標(biāo)跟蹤算法。首先根據(jù)跟蹤目標(biāo)特征的稀疏特性,利用隨機(jī)采樣在線更新獲取特征的離散樣本,引入Online?boosting的多特征加權(quán)權(quán)值,優(yōu)化置信圖估計(jì),并利用Kalman預(yù)測(cè)器預(yù)測(cè)修正跟蹤目標(biāo)區(qū)域位置。對(duì)三組不同場(chǎng)景圖像序列測(cè)試結(jié)果表明提出的算法能夠快速準(zhǔn)確地實(shí)現(xiàn)復(fù)雜環(huán)境下的運(yùn)動(dòng)目標(biāo)跟蹤任務(wù),有效地增強(qiáng)了目標(biāo)特征對(duì)紋理改變、光照變化和目標(biāo)遮擋的穩(wěn)健性,且繼承了傳統(tǒng)算法的實(shí)時(shí)性。

        關(guān)鍵詞: 目標(biāo)跟蹤; 壓縮跟蹤; Online?boosting; 卡爾曼預(yù)測(cè)器

        中圖分類號(hào): TN820.4?34; TP391 文獻(xiàn)標(biāo)識(shí)碼: A 文章編號(hào): 1004?373X(2016)12?0091?05

        Abstract: Since the target tracking algorithm for compression tracking (CT) has the problems of tracking drifting or target losing when the illumination of external environment changes, target attitude changes and target is covered, a Kalman predictor based target tracking algorithm importing CT multi?feature weighting is proposed. According to the sparse property of the tracked target characteristic, the online update of random sampling is used to acquire the discrete sample of the characteristic, and the weight of Online?boosting multi?feature weighting is imported to optimize the confidence map estimation. After that the Kalman predictor is used to predict and correct the position of the target area. The image sequences of three different scenes were tested. The test results show that the proposed algorithm can quickly and accurately realize the moving target tracking in complex environment, effectively improve the robustness of target characteristics in the aspects of texture variation, illumination variation and target occlusion, and keeps the real?time performance of the traditional tracking algorithm.

        Keywords: target tracking; compression tracking; Online?boosting; Kalman predictor

        0 引 言

        目標(biāo)檢測(cè)與跟蹤是計(jì)算機(jī)視覺領(lǐng)域中核心研究內(nèi)容之一,也是認(rèn)知科學(xué)、機(jī)器人學(xué)和人工智能共同關(guān)心的重要研究課題。目標(biāo)跟蹤技術(shù)是獲得高級(jí)層面信息的基礎(chǔ)條件,也是目標(biāo)識(shí)別與分類的重要組成部分。國內(nèi)外科研人員先后提出了多種目標(biāo)跟蹤方法,例如:基于目標(biāo)特征、區(qū)域匹配、目標(biāo)輪廓等目標(biāo)跟蹤算法,但這些傳統(tǒng)的算法存在現(xiàn)實(shí)復(fù)雜場(chǎng)景下實(shí)用性較差,魯棒性能不高等問題,導(dǎo)致跟蹤偏移或跟蹤失敗。近年來,基于在線學(xué)習(xí)的目標(biāo)跟蹤算法受到了廣泛關(guān)注,該算法把跟蹤問題看成一個(gè)特殊的二元分類問題[1?3],其核心思想利用根據(jù)先驗(yàn)知識(shí)設(shè)計(jì)的分類器將跟蹤目標(biāo)從幀序列圖像背景提取出來,并根據(jù)提取特征實(shí)時(shí)在線更新和修正目標(biāo)特征分類器。

        2006年D.Donoho等人提出一種“壓縮感知”(Compressive Sensing)信號(hào)采樣理論[4],該理論通過非線性稀疏結(jié)構(gòu)重建恢復(fù)原始信息,引起了數(shù)學(xué)界和應(yīng)用科學(xué)界的廣泛關(guān)注,之后壓縮感知思想在無線通信、生物傳感、機(jī)器視覺等領(lǐng)域得到廣泛應(yīng)用。2010年Sternig S等人提出了一種新的在線學(xué)習(xí)方法(Transient Boost),使用高度自適應(yīng)學(xué)習(xí)參數(shù)更新不可靠數(shù)據(jù),以適應(yīng)場(chǎng)景的快速變化并使錯(cuò)誤更新快速彈出,可靠數(shù)據(jù)則完全被保存下來,不會(huì)被錯(cuò)誤的更新所污染[5]。2011年Shi Q等人針對(duì)稀疏矩陣數(shù)據(jù)的不足,不能保證壓縮感知算法完美恢復(fù)原始信息的問題,提出了近似稀疏矩陣,提高了人臉識(shí)別的準(zhǔn)確性和實(shí)時(shí)性。2012年ZHANG Kaihua等人提出一種實(shí)時(shí)壓縮跟蹤方法[6],它首先利用符合限制等距性(Restricted Isometry Property)條件的隨機(jī)采樣矩陣對(duì)圖像特征進(jìn)行降維,其次采用樸素貝葉斯分類器對(duì)降維后的特征進(jìn)行分類,最后通過在線學(xué)習(xí)更新修正分類器參數(shù)。2014年張雷等人將跟蹤目標(biāo)區(qū)域特征變換為相位一致性特征[7],消除光照變化對(duì)目標(biāo)跟蹤的影響。該算法在環(huán)境光照變化時(shí)表現(xiàn)出了良好的適應(yīng)性和魯棒性。2015年潘磊利用符合有限等距性質(zhì)要求的稀疏矩陣對(duì)高維特征進(jìn)行采樣,提出了一種改進(jìn)的快速壓縮跟蹤算法,獲得目標(biāo)低維特征[8]。

        傳統(tǒng)CT目標(biāo)跟蹤算法實(shí)時(shí)性好,對(duì)外觀變化和背景變化均具有一定的魯棒性,但實(shí)際跟蹤過程中,當(dāng)目標(biāo)外觀變化較快時(shí),其分類器的更新速度明顯延遲,容易引起跟蹤漂移。針對(duì)CT算法的缺陷,提出改進(jìn)算法,根據(jù)灰度和紋理特征構(gòu)造目標(biāo)模型,基于Online?boosting的特征加權(quán)分類思想[9],采用多特征加權(quán)方法消除因正負(fù)樣本直接相加造成誤差累積的影響,并利用Kalman預(yù)測(cè)器預(yù)測(cè)修正圖像中目標(biāo)的位置,確定CT算法目標(biāo)跟蹤的搜索區(qū)域,減少目標(biāo)特征匹配時(shí)間,保持優(yōu)化算法的實(shí)時(shí)性。實(shí)驗(yàn)結(jié)果表明提出的算法不僅在復(fù)雜場(chǎng)景下能夠?qū)崟r(shí)準(zhǔn)確地完成運(yùn)動(dòng)目標(biāo)跟蹤任務(wù),驗(yàn)證了算法能夠有效地增強(qiáng)了特征對(duì)紋理改變、目標(biāo)遮擋和光照變化的穩(wěn)健性。

        1 CT算法介紹

        CT算法是在Prony理論方法的基礎(chǔ)上,將稀疏約束與隨機(jī)矩陣有效的結(jié)合,找到一個(gè)稀疏信息重建性能最佳的方法。在欠Nyquist采樣率的條件下,利用跟蹤目標(biāo)特征的稀疏特性,采用隨機(jī)采樣的方法獲取特征信息的離散正負(fù)樣本,然后通過非線性相關(guān)矩陣重建算法實(shí)現(xiàn)對(duì)高維信息特征的感知?;贑T的目標(biāo)跟蹤算法從目標(biāo)特征信息中稀疏抽樣得到低維壓縮特征,取代高維圖像特征中的冗余信息,并將有效低維特征整合進(jìn)行目標(biāo)跟蹤,較傳統(tǒng)算法具有處理數(shù)據(jù)少,分類器參數(shù)實(shí)時(shí)更新快等特點(diǎn)。

        1.1 壓縮感知的特征提取

        CT算法利用目標(biāo)特征信息的稀疏特性,通過稀疏采樣方法獲得低維離散正負(fù)樣本,其壓縮提取特征的公式如下:

        1.2 基于貝葉斯分類器的目標(biāo)檢測(cè)

        2 基于特征加權(quán)的目標(biāo)檢測(cè)

        國內(nèi)外學(xué)者對(duì)CT目標(biāo)跟蹤算法進(jìn)行了深入的研究,發(fā)現(xiàn)其算法在光照變化,目標(biāo)紋理變化易出現(xiàn)跟蹤偏移或丟失目標(biāo)的現(xiàn)象,分析其主要原因,該算法強(qiáng)制將多種不同樣本特征直接相加,沒有考慮到不同樣本的特征對(duì)目標(biāo)的分類效果的影響作用,產(chǎn)生較大的誤差累積,降低了分類器的分類效果。

        候選區(qū)域目標(biāo)正負(fù)樣本與跟蹤目標(biāo)的匹配概率為:

        CT目標(biāo)跟蹤算法利用式(3)對(duì)候選區(qū)域壓縮采樣得到低維離散特征樣本匹配概率直接疊加,選取最大的[H(v)]作為跟蹤目標(biāo)區(qū)域。但目標(biāo)特征的多樣化決定了每種特征構(gòu)造的分類器的分類效果的多樣化,又因在不同幀序列圖像,相同特征的分類效果也可能受到外界的干擾,產(chǎn)生不可預(yù)測(cè)的波動(dòng),直接將分類結(jié)果簡單累加,致使造成分類器分類過程中產(chǎn)生較大的誤差累積,更新分類器過程中加入非目標(biāo)信息特征,造成跟蹤偏移和跟蹤失敗。基于臨近幀的候選目標(biāo)特征相似性特點(diǎn),本文采用Online?boosting的特征加權(quán)分類思想,如圖2所示,引入了多樣本特征權(quán)值[wi]。

        Boosting算法將[N]個(gè)特征選擇器組成多個(gè)強(qiáng)分類器,通過構(gòu)造一個(gè)預(yù)測(cè)矩陣序列,并按照特定方式將強(qiáng)分類器整合到一個(gè)預(yù)測(cè)分類器中,并實(shí)時(shí)更新各個(gè)特征的累積分類正權(quán)值[λcorrm]和累積分類負(fù)權(quán)值[λwrongm]。Online?boosting算法在目標(biāo)跟蹤過程中不斷計(jì)算選擇器中[M]個(gè)目標(biāo)特征樣本的累積識(shí)別率,并將識(shí)別率加權(quán)融合,提高預(yù)測(cè)分類器的識(shí)別率,降低特征積累誤差。

        設(shè)定閾值[k](選取k=0)對(duì)訓(xùn)練樣本的分類結(jié)果進(jìn)行篩選。如果[pi(i)>k],認(rèn)為特征樣本為正樣本;如果[pi(i)≤k],認(rèn)為特征樣本為負(fù)樣本。

        3 Kalman預(yù)測(cè)器

        Kalman預(yù)測(cè)器作為一個(gè)在誤差協(xié)方差最小準(zhǔn)則下的最優(yōu)估計(jì)方法,能利用當(dāng)前的運(yùn)動(dòng)目標(biāo)特征參數(shù)不斷修正下幀圖像中運(yùn)動(dòng)目標(biāo)狀態(tài)的估計(jì)值,提高目標(biāo)跟蹤的跟蹤精度。CT得到的低維特征認(rèn)為是一個(gè)離散控制過程的系統(tǒng),利用樸素貝葉斯模型預(yù)測(cè)下幀圖像中跟蹤目標(biāo)的區(qū)域位置?;谀繕?biāo)特征區(qū)域的上一狀態(tài)可以預(yù)測(cè)出目標(biāo)特征:

        CT目標(biāo)跟蹤算法結(jié)合預(yù)測(cè)結(jié)果和測(cè)量結(jié)果自適應(yīng)調(diào)整目標(biāo)搜索區(qū)域,保證跟蹤算法的準(zhǔn)確性和實(shí)時(shí)性。目標(biāo)區(qū)域測(cè)量時(shí),通過當(dāng)前分類器的變化率,判斷跟蹤目標(biāo)時(shí)都被遮擋,在目標(biāo)嚴(yán)重遮擋或全部遮擋情況下,CT跟蹤算法測(cè)量的目標(biāo)位置是不準(zhǔn)確的,會(huì)出現(xiàn)跟蹤偏移或跟蹤失敗的問題。若變化率大于設(shè)定閾值,下幀圖像目標(biāo)區(qū)域的最優(yōu)估算值則舍棄當(dāng)前狀態(tài)的測(cè)量值,認(rèn)定Kalman預(yù)測(cè)器預(yù)測(cè)位置為目標(biāo)的實(shí)際位置,并停止更新前幀分類器參數(shù)。

        4 改進(jìn)算法綜述

        為提高CT的目標(biāo)跟蹤算法的魯棒性和實(shí)時(shí)性,對(duì)目標(biāo)特征提取算法進(jìn)行了優(yōu)化,引入多特征權(quán)值[wi],并結(jié)合Kalman預(yù)測(cè)器預(yù)測(cè)修正搜索目標(biāo)區(qū)域。算法流程如下:

        Step1:初始化貝葉斯分類器(選定跟蹤目標(biāo))。

        Step2:對(duì)某一幀圖像特征降維并訓(xùn)練正負(fù)樣本,并采用Kalman預(yù)測(cè)器計(jì)算目標(biāo)“質(zhì)心”,并預(yù)測(cè)下一幀圖像目標(biāo)質(zhì)心。

        Step3:初始化分類器參數(shù),計(jì)算目標(biāo)樣本特征的均值和方差。

        Step4:利用Online?boosting算法計(jì)算多樣本特征的權(quán)值。

        Step5:讀取下一幀圖像,并在預(yù)測(cè)的“質(zhì)心”周圍選取目標(biāo)區(qū)域,計(jì)算其特征值及分類器[H(v)]。

        Step6:計(jì)算分類器[H(v)]變化率,判斷目標(biāo)是否被遮擋以及遮擋程度。

        Step7:若變化率小于閾值[α],則認(rèn)為最大的[H(v)]為目標(biāo)區(qū)域,更新正負(fù)樣本及參數(shù),跳轉(zhuǎn)到步驟2進(jìn)行下一幀的處理。若變化率大于閾值[α],舍棄新生成的[H(v)]和樣本參數(shù),利用Kalman預(yù)測(cè)器預(yù)測(cè)跟蹤,跳轉(zhuǎn)到步驟5進(jìn)行下一幀的處理。

        算法流程圖如圖3所示。

        5 實(shí)驗(yàn)結(jié)果

        為了驗(yàn)證提出的基于Kalman濾波的CT多特征加權(quán)目標(biāo)跟蹤算法的有效性,對(duì)David,Crossing和Bike三組序列分別采用傳統(tǒng)CT算法和提出的算法進(jìn)行目標(biāo)跟蹤實(shí)驗(yàn)。跟蹤結(jié)果如圖4~圖6所示(實(shí)線是CT跟蹤目標(biāo)框,點(diǎn)劃線是本文算法跟蹤目標(biāo)框)。實(shí)驗(yàn)環(huán)境為Intel[?]CoreTM i5?4590 CPU 3.3 GHz。操作系統(tǒng)是WIN7(32 b),開發(fā)環(huán)境是Matlab 2010b。

        圖4 中David序列大小為320×240,從跟蹤實(shí)驗(yàn)效果可以看出傳統(tǒng)CT跟蹤效果在目標(biāo)的紋理、光照變化較少和目標(biāo)未被遮擋的情況下總體跟蹤效果良好,但是第180幀中,因?yàn)轭^部快速運(yùn)動(dòng),跟蹤檢測(cè)的視頻序列中出現(xiàn)了跟蹤區(qū)域漂移問題。本文算法采用多特征加權(quán)方法,并且利用Kalman預(yù)測(cè)器對(duì)目標(biāo)位置進(jìn)行預(yù)測(cè)和修正,可以看出綠色跟蹤框“質(zhì)心”大體在David鼻子周圍小范圍的移動(dòng),即時(shí)目標(biāo)快速移動(dòng)時(shí)也表現(xiàn)出較好的魯棒性。

        圖5中Crossing序列大小為384×288,該序列中出現(xiàn)跟蹤目標(biāo)被部分遮擋的情況。本文選擇中年婦女作為跟蹤目標(biāo),在第105幀,目標(biāo)被一男子部分遮擋,當(dāng)男子與婦女分離時(shí),CT跟蹤框開始跟蹤移動(dòng)男子,丟失目標(biāo)。這是由于男子的灰度特征與婦女相似,導(dǎo)致分類器[H(v)]誤判。本文提出的方法在121幀也發(fā)生了目標(biāo)飄移現(xiàn)象,但是Kalman濾波器根據(jù)[H(v)]的變化率實(shí)時(shí)判斷目標(biāo)是否被遮擋并保留預(yù)測(cè)位置,自主修正跟蹤位置。

        圖6中Bike序列大小為320×240,圖像背景復(fù)雜,干擾因素較多。選取騎自行車女子作為跟蹤目標(biāo),自行車移動(dòng)速度非??欤以?6~24幀被大樹遮擋,能夠考驗(yàn)?zāi)繕?biāo)跟蹤算法的魯棒性。而本文算法在目標(biāo)移動(dòng)速度快且有遮擋情況下,其中有三幀完全被遮擋圖像,能夠有效預(yù)測(cè)移動(dòng)目標(biāo)位置。第24幀當(dāng)自行車前輪再次出現(xiàn)時(shí),虛線跟蹤框捕捉目標(biāo),并實(shí)時(shí)完成跟蹤任務(wù)。而CT算法目標(biāo)被完全遮擋時(shí),搜索最大相似值,雖然變化率很大,但不能自適應(yīng)的找回目標(biāo)。

        6 結(jié) 論

        本文算法是在壓縮傳感跟蹤算法的基礎(chǔ)上提出的,引入Online?boosting的特征加權(quán)分類思想,融合多個(gè)正負(fù)樣本,結(jié)合Boosting學(xué)習(xí)方法更新特征權(quán)值和置信圖估計(jì),采用多種特征的加權(quán)組合,解決跟蹤目標(biāo)紋理或環(huán)境變化魯棒性不高的問題,能有效抗干擾,并尋回目標(biāo),有效提高特征跟蹤的穩(wěn)定性。

        利用Kalman預(yù)測(cè)器結(jié)合現(xiàn)在目標(biāo)區(qū)域的預(yù)測(cè)結(jié)果和現(xiàn)在目標(biāo)區(qū)域的測(cè)量值,計(jì)算得到下幀圖像最優(yōu)化目標(biāo)區(qū)域,實(shí)現(xiàn)減少在周圍相似區(qū)域搜尋目標(biāo)時(shí)間的目的,并有效提高跟蹤算法的魯棒性和實(shí)時(shí)性。從David,Crossing和Bike三組不同場(chǎng)景序列圖像目標(biāo)跟蹤對(duì)比實(shí)驗(yàn)表明,提出的方法在外界環(huán)境光照改變、目標(biāo)姿態(tài)變化等干擾因素下較CT的跟蹤穩(wěn)定性均有所提高;在目標(biāo)發(fā)生遮擋和嚴(yán)重遮擋情況下,有效地預(yù)測(cè)跟蹤目標(biāo)“質(zhì)心”,表現(xiàn)出良好的自適應(yīng)性和魯棒性,并繼承了壓縮感知算法的實(shí)時(shí)性。

        參考文獻(xiàn)

        [1] DíAZ?FéLIX L A, ESCOBAR?TOLEDO M, WAISSMAN J, et al. Evaluation of heliostat field global tracking error distributions by Monte Carlo simulations [J]. Energy procedia, 2014, 49: 1308?1317.

        [2] GRABNER H, BISCHOF H. On?line boosting and vision [C]// 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. [S.l.]: IEEE, 2006: 260?267.

        [3] MEI X, LING H. Robust visual tracking and vehicle classification via sparse representation [J]. IEEE transactions on pattern analysis and machine intelligence, 2011, 33(11): 2259?2272.

        [4] DONOHO D L. Compressed sensing [J]. IEEE transactions on information theory, 2006, 52(4): 1289?1306.

        [5] STERNIG S, GODEC M, ROTH P M, et al. TransientBoost: on?line boosting with transient data [C]// 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops. San Francisco: IEEE, 2010: 22?27.

        [6] ZHANG K, ZHANG L, YANG M H. Real?time compressive tracking [C]// Proceedings of 2012 12th European Conference on Computer Vision. Florence: Springer Berlin Heidelberg, 2012: 864?877.

        [7] 張雷,王延杰,何舒文.基于相位一致性的實(shí)時(shí)壓縮跟蹤方法[J].光子學(xué)報(bào),2014,43(8):124?131.

        [8] 潘磊,束鑫,祁云嵩.一種改進(jìn)的快速壓縮跟蹤算法[J].江蘇科技大學(xué)學(xué)報(bào)(自然科學(xué)版),2015,29(2):175?179.

        [9] CHANG W C, CHO C W. Online boosting for vehicle detection [J]. IEEE transactions on systems man cybernetics Part B, 2010, 40(3): 892?902.

        [10] MAZINAN A H, AMIR?LATIFI A. Applying mean shift, motion information and Kalman filtering approaches to object tracking [J]. ISA transactions, 2012, 51(3): 485?497.

        [11] REN D, QU F, Lü K, et al. A gradient descent boosting spectrum modeling method based on back interval partial least squares [J]. Neurocomputing, 2015, 171: 1038?1046.

        [12] SHI Q, ERIKSSON A, VAN DEN HENGEL A, et al. Is face recognition really a compressive sensing problem? [C]// 2011 IEEE Conference on Computer Vision and Pattern Recognition. [S.l.]: IEEE, 2011: 553?560.

        国产精品久久1024| 亚洲熟妇色自偷自拍另类| 国产真实乱对白精彩| 亚洲人成网站77777在线观看 | 在线观看播放免费视频| 天天干天天日夜夜操| 伊人久久精品久久亚洲一区| 久久精品这里只有精品| 一区二区三区精彩视频在线观看| 丰满人妻猛进入中文字幕| 国产尤物av尤物在线观看| 国产亚洲欧美在线| 国产大学生自拍三级视频| 91精品亚洲成人一区二区三区| 人妻中文无码久热丝袜| 久久久久久亚洲AV成人无码国产| 久久精品国产白丝爆白浆| 日本精品一区二区三区二人码| 日本爽快片18禁免费看| 香蕉视频免费在线| 精品久久中文字幕一区| 中国美女a级毛片| 国产亚洲婷婷香蕉久久精品| 中文字幕偷拍亚洲九色| 国产高清精品一区二区| 成人综合网站| 亚洲另类欧美综合久久图片区 | 日韩美女av一区二区| 亚洲热线99精品视频| 国产成人精品午夜福利在线| 亚洲美女主播一区二区| 国产偷国产偷亚洲高清视频| 国产乱xxⅹxx国语对白| 日韩精品一区二区三区毛片| 国产在线精品观看一区二区三区 | 九九久久99综合一区二区| 国产亚洲欧美成人久久片| 国产少妇一区二区三区| 亚洲av成人无码久久精品老人| 日日av拍夜夜添久久免费| 国产好片日本一区二区三区四区|