張麗娟,紀(jì) 峰,常 霞,李澤仁
?
遮擋情況下多尺度壓縮感知跟蹤
張麗娟,紀(jì) 峰,常 霞,李澤仁
(北方民族大學(xué)數(shù)學(xué)與信息科學(xué)學(xué)院,寧夏 銀川 750021)
針對(duì)現(xiàn)有在線學(xué)習(xí)跟蹤算法中目標(biāo)在線模型更新錯(cuò)誤導(dǎo)致跟蹤漂移的問(wèn)題,提出一種在線模型自適應(yīng)更新的目標(biāo)跟蹤算法:首先利用壓縮感知技術(shù)的高效性,對(duì)多尺度圖像特征進(jìn)行降維,并提取多尺度樣本來(lái)實(shí)現(xiàn)目標(biāo)尺度自適應(yīng)更新,再由提取的正負(fù)樣本低維圖像特征訓(xùn)練樸素貝葉斯分類器,利用分類器輸出置信度最大處目標(biāo)樣本完成目標(biāo)跟蹤,并依據(jù)當(dāng)前目標(biāo)置信度來(lái)自適應(yīng)在線模型更新速率,減少了遮擋帶來(lái)的目標(biāo)錯(cuò)誤更新。實(shí)驗(yàn)表明:該方法在尺度變化、局部和全局遮擋、光照變化等情況下均能完成魯棒跟蹤,平均跟蹤成功率較原始?jí)嚎s感知跟蹤算法提高了20.3%。
目標(biāo)跟蹤;在線學(xué)習(xí);壓縮感知
目標(biāo)跟蹤是當(dāng)前計(jì)算機(jī)視覺領(lǐng)域內(nèi)的一個(gè)重要研究方向,在視頻監(jiān)控、運(yùn)動(dòng)分析、目標(biāo)識(shí)別等方面得到了廣泛應(yīng)用[1],為了完成魯棒的目標(biāo)跟蹤任務(wù),目標(biāo)在線模型受到了廣泛關(guān)注,而基于目標(biāo)在線模型,當(dāng)前跟蹤算法可分為生成式跟蹤算法[2-4]和判別式跟蹤算法[5-8]。
生成式跟蹤算法通過(guò)提取目標(biāo)信息來(lái)完成目標(biāo)表示,然后利用在線學(xué)習(xí)到的目標(biāo)模型在當(dāng)前幀中基于最小重構(gòu)誤差完成目標(biāo)定位,但該類方法忽略了判別性較強(qiáng)的背景信息。判別式跟蹤算法將目標(biāo)跟蹤構(gòu)建為一個(gè)二元分類問(wèn)題,同時(shí)提取目標(biāo)與背景信息來(lái)訓(xùn)練一個(gè)分類器,由分類器決定當(dāng)前幀目標(biāo)位置,因此也稱為基于檢測(cè)的跟蹤算法(tracking by detection)。Grabner等[5]提出了一種在線半監(jiān)督boosting跟蹤算法,利用未標(biāo)簽樣本克服了分類器錯(cuò)誤更新而導(dǎo)致的跟蹤漂移問(wèn)題;Babenko等[6]將多示例學(xué)習(xí)的思想引入目標(biāo)跟蹤,利用包含有正負(fù)樣本的“樣本袋”來(lái)代替單一樣本送入分類器訓(xùn)練,提高了分類器的判別能力;近來(lái)Kalal等[7]提出了一種結(jié)構(gòu)化約束準(zhǔn)則來(lái)提升分類器對(duì)正負(fù)樣本的選擇,提升了分類器的抗背景干擾能力。然而這類算法普遍復(fù)雜度較高,為此限制了它們的實(shí)時(shí)應(yīng)用。
文獻(xiàn)[8]在充分利用上述兩類算法的各自優(yōu)勢(shì)的基礎(chǔ)上,提出了一種實(shí)時(shí)跟蹤算法——壓縮感知跟蹤(Compressive Tracking,CT),通過(guò)建立一個(gè)隨機(jī)投影矩陣對(duì)多尺度圖像特征進(jìn)行降維,并通過(guò)樸素貝葉斯分類器進(jìn)行分類,其高效性引起了學(xué)者的廣泛關(guān)注:文獻(xiàn)[9]通過(guò)過(guò)飽和分塊提升了CT的抗局部遮擋能力,但計(jì)算復(fù)雜度也隨之增高;文獻(xiàn)[10]利用模板匹配策略提升了分類器的判別能力,文獻(xiàn)[11]用互補(bǔ)的多個(gè)矩陣代替CT中的投影矩陣。然而上述算法依然存在以下問(wèn)題:第一,缺乏對(duì)目標(biāo)尺度的自適應(yīng)更新;第二,缺乏對(duì)遮擋的有效判斷,進(jìn)而導(dǎo)致目標(biāo)在線模型錯(cuò)誤更新。
針對(duì)以上兩個(gè)問(wèn)題,本文在利用壓縮感知理論提取圖像特征的高效性的基礎(chǔ)上,采取多尺度樣本來(lái)實(shí)現(xiàn)目標(biāo)尺度自適應(yīng)更新,在由分類器得到當(dāng)前幀目標(biāo)位置后,依據(jù)當(dāng)前目標(biāo)置信度來(lái)自適應(yīng)在線模型更新速率,減少了遮擋帶來(lái)的目標(biāo)錯(cuò)誤更新,進(jìn)而能夠完成魯棒的跟蹤任務(wù)。
隨機(jī)投影矩陣是壓縮感知理論中的重要概念,其作用是將高維圖像特征壓縮成低維特征,如下式:
=(1)
式中:r~(0,1),在2或3之間隨機(jī)選擇,因此隨機(jī)投影矩陣中的大量元素為零,大大減少了計(jì)算量。
式中:和是矩形濾波器的寬和高;和是樣本窗口的寬和高。通過(guò)公式(1)高維特征將被壓縮成低維特征,文獻(xiàn)[8]中采取類Haar特征的加權(quán)組合并采取積分圖像加速,如圖1所示。
其中:
對(duì)所有采樣樣本計(jì)算其()值,選擇最大的候選樣本作為最終跟蹤結(jié)果,再在其周圍采樣新的正樣本,計(jì)算其特征值對(duì)公式(5)進(jìn)行更新:
式(6)中:1,1分別是正樣本圖像特征的均值和方差;為學(xué)習(xí)率,原始算法中固定為0.85。
從以上的分析可以發(fā)現(xiàn)CT算法存在兩大問(wèn)題:一是式(3)中多尺度濾波器采用固定大小,一旦目標(biāo)尺度發(fā)生變化將無(wú)法提取到正確的特征信息;二是在線模型中采用固定學(xué)習(xí)速率,當(dāng)目標(biāo)受到遮擋或光照變化等因素影響時(shí)模型將產(chǎn)生更新錯(cuò)誤。為此本文提出改進(jìn)策略:采取多尺度樣本來(lái)實(shí)現(xiàn)目標(biāo)尺度自適應(yīng)更新;依據(jù)當(dāng)前目標(biāo)置信度來(lái)自適應(yīng)在線模型更新速率。
CT算法式(3)中多尺度濾波器(即圖像特征)的位置和大小固定不變,當(dāng)目標(biāo)尺度發(fā)生變化時(shí)將不再適用,而為了自適應(yīng)目標(biāo)尺度變化,本文首先將圖像特征根據(jù)濾波器窗口大小歸一化,如下式:
圖1 隨機(jī)投影矩陣提取特征
0×中的每一個(gè)元素表示為0×(r,r,r,h),其中r、r、r、h分別代表矩形濾波器的位置、寬和高。在尺度下,R×的每一個(gè)元素則表示為((round(rs),(round(rs),(round(rs), (round(hs))。
從式(6)可以發(fā)現(xiàn)CT算法采用固定學(xué)習(xí)率更新在線模型,當(dāng)目標(biāo)受到遮擋或光照變化等因素影響時(shí)模型將產(chǎn)生更新錯(cuò)誤,容易導(dǎo)致跟蹤漂移。實(shí)驗(yàn)表明由分類器()得到的每一幀目標(biāo)置信度值是不一樣的,因此可以采用當(dāng)前幀目標(biāo)置信度值來(lái)決定式(6)中學(xué)習(xí)率的大小,如下式:
式中:H()代表第幀的目標(biāo)置信度值;max()代表當(dāng)前所有幀目標(biāo)置信度值中的最大值;代表第幀學(xué)習(xí)率的大小,當(dāng)目標(biāo)被局部遮擋或受光照變化影響時(shí),目標(biāo)置信度值較小,所以取較小值,而當(dāng)H()<0時(shí),則說(shuō)明樣本被分類器判定為負(fù)樣本,當(dāng)前目標(biāo)處于被完全遮擋狀態(tài),學(xué)習(xí)率應(yīng)當(dāng)置為0,目標(biāo)在線模型不再更新。
實(shí)驗(yàn)采用常見的具有3段不同挑戰(zhàn)性的視頻,并與原始CT算法[8]以及多示例學(xué)習(xí)MIL算法[6]進(jìn)行對(duì)比分析,實(shí)驗(yàn)利用OpenCV2.4.9在VS2010上進(jìn)行調(diào)試。視頻主要特性如表1所示。
表1 實(shí)驗(yàn)視頻的不同特性
分類器學(xué)習(xí)率初始化為1=0.85,搜索窗口半徑=25,正樣本采樣半徑=4,負(fù)樣本內(nèi)外采樣半徑=8和=30,尺度更新機(jī)制中=1.02,=1,也即尺度空間共3個(gè)尺度。
圖2 多尺度隨機(jī)投影矩陣
圖4顯示了本文算法的抗遮擋能力,Suv序列在第185幀左右目標(biāo)逐步被樹木遮擋,CT算法由于采用固定學(xué)習(xí)率不斷將錯(cuò)誤信息更新到在線模型而逐漸丟失目標(biāo),MIL算法在第350幀左右目標(biāo)被遮擋后也出現(xiàn)了同樣的問(wèn)題,而本文算法一旦判定完全遮擋則不再更新在線模型,全程完成了魯棒跟蹤任務(wù)。
表2 算法跟蹤成功率對(duì)比
圖5顯示了本文算法的抗光照變化能力,David序列中目標(biāo)從暗處走向亮處,且目標(biāo)多次出現(xiàn)形變,CT算法和MIL算法由于缺乏對(duì)目標(biāo)信息的有效判斷,跟蹤框逐漸偏移目標(biāo),而本文算法的全程魯棒跟蹤顯示了本文算法的抗光照變化能力。
圖3 視頻序列跟蹤誤差
Fig.3 Video sequence tracking error
圖4 Suv序列跟蹤結(jié)果
圖6顯示了本文算法的抗尺度變化能力,Car4序列中的目標(biāo)尺度越來(lái)越小,本文算法的多尺度機(jī)制能夠不斷捕捉到這種尺度變化,因此跟蹤框隨著目標(biāo)減小而減小,且能對(duì)目標(biāo)進(jìn)行很好的定位,而CT算法和MIL算法缺乏尺度更新機(jī)制在目標(biāo)從橋下走出時(shí)丟失了目標(biāo)。
針對(duì)現(xiàn)有在線學(xué)習(xí)跟蹤算法中存在的跟蹤漂移問(wèn)題,本文在壓縮感知跟蹤算法的基礎(chǔ)上,采用在線模型自適應(yīng)更新機(jī)制以及目標(biāo)尺度自適應(yīng)更新機(jī)制,提出了一種簡(jiǎn)單且高效的目標(biāo)跟蹤算法。三組不同挑戰(zhàn)性的實(shí)驗(yàn)表明:本文方法在目標(biāo)被長(zhǎng)時(shí)或短時(shí)遮擋、光照變化及尺度變化等情況下均能完成魯棒跟蹤,跟蹤成功率較原始?jí)嚎s感知算法提高了20.3%。
圖5 David序列跟蹤結(jié)果
圖6 Car4序列跟蹤結(jié)果
[1] Wu Y, Lim J, Yang M H. Online object tracking: a benchmark[C]//, 2013: 2411-2418(doi: 10.1109/CVPR.2013.312).
[2] Ross D, Lim J, Lin R, et al. Incremental learning for robust visual tracking[C]//, 2008, 77(1-3): 125-141.
[3] Mei X, Ling H. Robust visual tracking and vehicle classification via sparse representation[J]., 2011, 33(11): 2259-2272.
[4] Li H, Shen C, Shi Q. Real- time visual tracking using compressive sensing[C]//, 2011: 1305- 1312 (doi: http: //doi. ieeecomputersociety. org/ 10.1109/ CVPR. 2011. 5995483).
[5] Grabner H, Leistner C, Bischof H. Semi- supervised on-line boosting for robust tracking[C]//, 2008, Part I: 234-247.
[6] Babenko B, Yang M H, Belongie S. Robust object tracking with online multiple instance learning[J]., 2011, 33: 1619-1632.
[7] Kalal Z, Matas J, Mikolajczyk K. Tracking -learning-detection[J]., 2012, 34: 1409-1422.
[8] Zhang K H, Zhang L, Yang M H. Real time compressive tracking [C]//, 2012, 7574: 864 - 877.
[9] Zhu Qiuping, Yan Jia, Deng Dexiang. Compressive tracking via over- saturated sub-region classifiers[J]., 2013, 17(6): 448-455.
[10] Jing Jing, Xu Guangzhu, Lei Bangjun. Using appearance rematching to improve compressive tracking[C]//, 2013: 28-33(doi: 10.1145/ 2499788. 2499825).
[11] 朱秋平, 顏佳, 張虎, 等. 基于壓縮感知的多特征實(shí)時(shí)跟蹤[J]. 光學(xué)精密工程, 2013, 21(2): 437-444.
Zhu Qiuping, Yan Jia, Zhang Hu, et al. Real-time tracking using multiple features based on compressive sensing[J]., 2013, 21(2): 437-444.
Multi-scale Compression Perception Tracking under Occlusion
ZHANG Li-juan,JI feng,CHANG Xia,LI Ze-ren
(,750021,)
In order to deal with the drift problem by updating error in current online learning tracking algorithms, a new adaptive update tracking algorithm is proposed. First of all, based on the efficiency of compressed sensing, the multi-scale image feature space is decreased, and multi-scale samples are exacted to update the target scale. Secondly, a naive Bayes classifier is trained by low dimension image features from positive and negative samples. Experimental results show that the proposed algorithm can complete the robust tracking under the condition of scale changes, partial and full occlusion, illumination changes, etc. Tracking successful rate is improved by 20.3% compared with the original compressive tracking.
object tracking,online learning,compressive sensing
TP391
A
1001-8891(2015)12-1052-06
2015-07-20;
2015-10-05.
張麗娟,女,河北省滄州人。碩士研究生,主要研究方向?yàn)閳D形圖像處理。E-mail:372160407@qq.com。
國(guó)家自然科學(xué)基金項(xiàng)目,編號(hào):61440044,61102008,61462002,61163017;寧夏自然科學(xué)基金項(xiàng)目,編號(hào):NZ13097,國(guó)家民委科研項(xiàng)目,編號(hào):14BFZ003。