冷建偉 李 鵬
1(天津市復(fù)雜系統(tǒng)控制理論及應(yīng)用重點(diǎn)實(shí)驗(yàn)室 天津 300384)2(天津理工大學(xué)自動(dòng)化學(xué)院 天津 300384)
基于視頻的目標(biāo)跟蹤是計(jì)算機(jī)視覺領(lǐng)域的一個(gè)重要分支。隨著信息技術(shù)的發(fā)展,目標(biāo)跟蹤技術(shù)也越來越多的應(yīng)用到現(xiàn)實(shí)生活中,給人們的工作和學(xué)習(xí)帶來了難以想象的便利。同時(shí),也帶來了無限的商機(jī)和挑戰(zhàn),很多研究機(jī)構(gòu)開始致力于目標(biāo)跟蹤技術(shù)的研究與應(yīng)用。目前,雖然很多目標(biāo)跟蹤技術(shù)已經(jīng)取得了成功應(yīng)用,但當(dāng)環(huán)境中影響因素較多時(shí),跟蹤準(zhǔn)確性往往會(huì)降低。因此,如何降低干擾因素對跟蹤的影響是計(jì)算機(jī)視覺領(lǐng)域一直以來的研究重點(diǎn)。根據(jù)檢測過程與跟蹤過程是否相關(guān),可將跟蹤算法分為生成式和判別式兩大類。
生成式跟蹤算法是從眾多候選目標(biāo)中尋找最優(yōu)的候選目標(biāo),其跟蹤過程與檢測過程是相互獨(dú)立的,二者有一定的先后順序。2003年,Comaniciu等[1]利用目標(biāo)顏色直方圖建立表觀模型,使用Mean-shift迭代求取最優(yōu)解實(shí)現(xiàn)了目標(biāo)定位。2012年,Rahmati等[2]對Comaniciu的方法進(jìn)行了改進(jìn),實(shí)現(xiàn)了對嬰兒四肢運(yùn)動(dòng)的跟蹤。2004年,Li[3]提出一種具有較好魯棒性的PCA算法,該算法使用子空間學(xué)習(xí)方法建立目標(biāo)表觀模型,在提高模型準(zhǔn)確性的同時(shí)減少了算法耗時(shí)。2008年,Ross等[4]考慮到樣本均值更新問題,提出使用增量在線更新樣本均值,實(shí)現(xiàn)了表觀模型的自適應(yīng)更新。2009年,Mei等[5]利用稀疏約束優(yōu)化重構(gòu)系數(shù),提高了目標(biāo)模板重構(gòu)性能,使跟蹤穩(wěn)定性有所提升。2011年,Li等[6]利用目標(biāo)壓縮特征建立目標(biāo)表觀模型,降低算法計(jì)算量,實(shí)現(xiàn)了對目標(biāo)的實(shí)時(shí)跟蹤。生成式跟蹤方法利用目標(biāo)表觀模型跟蹤目標(biāo),但這種方法容易受到背景干擾,特別是背景中存在與目標(biāo)表觀相似的物體時(shí),容易跟丟目標(biāo)。同時(shí),由于視角、形態(tài)、光照等因素,實(shí)際跟蹤目標(biāo)往往沒有確定的表觀模型,很難對其進(jìn)行結(jié)果性驗(yàn)證。
判別式跟蹤算法充分利用背景信息,在跟蹤過程中實(shí)時(shí)檢測目標(biāo)與背景,通過確定目標(biāo)與背景的分界線進(jìn)行分類,進(jìn)而實(shí)現(xiàn)跟蹤。2007年,Liu等[7]在Boosting框架下使用梯度特征成功構(gòu)建了判別式表觀模型,實(shí)現(xiàn)了目標(biāo)與背景的分類。但該類算法沒有根據(jù)特征之間的關(guān)系選取特征,導(dǎo)致所選特征重疊度較高,分類器更新比較單一。2011年,Babenko等[8]提出一種通過“包”的形式訓(xùn)練樣本的多示例學(xué)習(xí)跟蹤算法,使跟蹤具有較強(qiáng)的學(xué)習(xí)和判別能力,但由于“包”中包含多個(gè)樣本,使特征選擇比較耗時(shí),難以滿足實(shí)時(shí)性。2012年,Zhang等[9]通過壓縮感知理論降低樣本維度,并使用樸素貝葉斯分類器對樣本壓縮特征進(jìn)行分類,使跟蹤具有良好的時(shí)效性。但該算法也存在一定缺陷:1) 跟蹤過程中使用所有樣本對分類器進(jìn)行更新,分類器容易受到被污染樣本的干擾,導(dǎo)致跟蹤穩(wěn)定性下降。2) 跟蹤過程中始終使用固定尺寸的跟蹤框檢測和識(shí)別樣本,當(dāng)目標(biāo)尺度變化較大時(shí)容易引進(jìn)誤差。為使跟蹤具有更好效果,很多專家和學(xué)者改進(jìn)了CT算法。2014年,毛征等[10]通過對樣本壓縮特征進(jìn)行在線選擇,提高了算法跟蹤準(zhǔn)確性,但沒有解決跟蹤窗口尺度問題。2016年,姜樹明等[11]將Hog特征與多尺度矩形特征融合用于目標(biāo)跟蹤,并使用多樣本矩形平均的方法確定目標(biāo)位置,該算法跟蹤穩(wěn)定性高,不易受干擾影響,但提取目標(biāo)多種特征比較耗時(shí)。同年,朱周元等[12]結(jié)合基于隨機(jī)映射的外觀模型以及粒子濾波方法,使算法能適應(yīng)目標(biāo)尺度變化,提高跟蹤實(shí)用性。但該算法使用所有特征更新分類器,易受到被污染樣本干擾。
本文在CT算法框架下進(jìn)行改進(jìn),首先,對測量矩陣進(jìn)行優(yōu)化,提高測量矩陣壓縮性能;然后,通過置信度和正負(fù)類分布差異對特征進(jìn)行篩選,排除被污染樣本影響,使分類器更新更加準(zhǔn)確;最后,利用相鄰兩幀目標(biāo)仿射變換使跟蹤窗口可隨目標(biāo)尺度變化實(shí)時(shí)更新,減少采樣誤差,提高跟蹤魯棒性。
由壓縮感知理論可知,通過使用稀疏矩陣R∈Rn×m(n< V=RX (1) 且當(dāng)R滿足Johnson-Lindenstrauss[13]準(zhǔn)則時(shí),V可最大限度的保留原始信號(hào)的判別信息。壓縮特征由原始特征經(jīng)稀疏矩陣獲得,稀疏矩陣構(gòu)造參考文獻(xiàn)[9],即: (2) 式中:rij是稀疏矩陣的元素;s是[2,4]內(nèi)隨機(jī)生成的整數(shù)。 壓縮跟蹤算法中,特征提取過程如圖1所示。首先,通過使用不同位置和大小的矩形濾波器對高維圖像進(jìn)行卷積,得到高維圖像特征;然后,將高維圖像特征歸類為一個(gè)集合;最后,對該集合使用非常稀疏矩陣進(jìn)行降維,得到樣本壓縮特征。 圖1 特征提取過程 樣本圖像的低維特征向量v=(v1,v2,…,vn)∈Rn大體上服從獨(dú)立分布[14]。因此,CT算法使用對滿足獨(dú)立分布變量誤分率低且耗時(shí)小的樸素貝葉斯分類器對目標(biāo)和背景進(jìn)行分類,分類器模型如下: (3) 式中:y∈{0,1}為樣本標(biāo)記,y=1表示樣本為目標(biāo),y=0表示樣本為背景。 文獻(xiàn)[15]證明了經(jīng)稀疏矩陣投影得到的低維特征大體滿足高斯分布,故H(v)中的條件概率p(vi|y=1)和p(vi|y=0)也服從高斯分布,即: (4) (5) (6) (7) 式中λ>0為學(xué)習(xí)率。 在壓縮感知中,測量矩陣決定了原始信號(hào)的壓縮與重構(gòu)性能。好的測量矩陣需要滿足一定的條件(例如:零空間特征、列相關(guān)、RIP等),在壓縮時(shí)可保留原始信號(hào)的重要信息,并可以結(jié)合測量值重構(gòu)原始信號(hào)。CT算法使用非常稀疏矩陣獲取壓縮特征,降低計(jì)算復(fù)雜度,但這種矩陣是一種隨機(jī)矩陣,在應(yīng)用上存在著一定的瓶頸:1) 隨機(jī)矩陣元素由隨機(jī)數(shù)構(gòu)成,矩陣隨機(jī)性比較大,導(dǎo)致跟蹤結(jié)果重現(xiàn)難度大,且隨機(jī)數(shù)依賴硬件產(chǎn)生。2) 隨機(jī)矩陣很難完全滿足RIP和弱相關(guān)條件,壓縮性能并不是很理想?;谝陨想S機(jī)測量矩陣的不足,引入確定性測量矩陣。 壓縮感知中確定性測量矩陣從構(gòu)造角度可分為四類:1) 基于有限域的測量矩陣;2) 基于編碼的測量矩陣;3) 基于訓(xùn)練的測量矩陣;4) 最大Welch界等式矩陣。由文獻(xiàn)[16]可知,基于差集構(gòu)造算法的最大Welch界等式矩陣滿足RIP和列相干性條件,構(gòu)造簡單,壓縮性能好,適用于跟蹤算法。所以,本文使用基于差集構(gòu)造算法的最大Welch界等式矩陣投影獲取樣本壓縮特征。M×N維最大Welch界矩陣構(gòu)造如下: (8) CT算法使用所有特征對分類器進(jìn)行更新,當(dāng)被污染或者不利于分類的特征用于更新分類器時(shí),會(huì)影響分類器參數(shù),進(jìn)而影響跟蹤性能。因此,選取優(yōu)質(zhì)的特征更新分類器是很有必要的。針對分類器更新問題,本文對一幀中提取的壓縮特征進(jìn)行兩次篩選,使用置信度高且正負(fù)類分布差異大的特征更新分類器,提高跟蹤抗干擾能力和準(zhǔn)確性。 2.2.1初次篩選 初次篩選是通過置信度對特征進(jìn)行篩選,置信度越高,表明特征包含目標(biāo)信息越多;置信度越低,表明特征包含目標(biāo)信息越少。為降低干擾影響,保證跟蹤穩(wěn)定性,要盡量使用包含目標(biāo)信息多的特征更新分類器。本文使用徑向?qū)ΨQ的高斯核函數(shù)[10](最常用的徑向基函數(shù))來擬合特征置信度,其數(shù)學(xué)表達(dá)式為: (9) 式中:x為函數(shù)變量,xc為核函數(shù)中心,σ為函數(shù)寬度。函數(shù)值表示變量x到函數(shù)中心xc的歐式距離。 壓縮特征服從高斯分布,因此可利用相鄰兩幀同一特征均值的差異來度量特征置信度,即: (10) 式中:μk+1是某一特征后一幀概率分布均值,μk是該特征前一幀概率分布均值。若得到函數(shù)值較大,則說明此特征在相鄰兩幀均值差異較大,特征很有可能遭到污染;若得到的函數(shù)值較小,則說明此特征在相鄰兩幀均值差異較小,包含目標(biāo)信息較多。 在初次篩選階段,首先利用式(10)計(jì)算同一特征在相鄰兩幀均值的差異,然后按得到的函數(shù)值大小對特征進(jìn)行升序排列,選出前M個(gè)置信度高的特征等待二次篩選。通過使用置信度對特征進(jìn)行篩選,可有效抑制由不良樣本引入的噪聲,降低對分類器選擇的影響。此外,為了充分利用背景信息,不對背景進(jìn)行置信度評(píng)價(jià),而是隨機(jī)選取負(fù)樣本更新分類器。 2.2.2二次篩選 在CT算法中,分類器是通過尋找目標(biāo)與背景的界限來分類的,特征正負(fù)類分布差異越大,目標(biāo)與背景界限越明顯,越有利于分類;特征正負(fù)類分布差異越小,目標(biāo)與背景界限越模糊,越不利于分類。經(jīng)過初次篩選以后,得到M個(gè)置信度高的特征,但由于這些特征正負(fù)類分布差異不同,所以分類能力也不同,因此,二次篩選的目的就是選取更利于分類的特征更新分類器。本文采用巴氏系數(shù)[17]度量特征正負(fù)類分布差異,對于連續(xù)分布,其表達(dá)式為: (11) 式中:p(x)和q(x)是兩個(gè)樣本,B∈[0,1]表示巴氏系數(shù),可用來評(píng)價(jià)特征正負(fù)類分布差異。B越小,正負(fù)類差異越大;B越大,正負(fù)類差異越小。 在二次篩選階段,首先計(jì)算經(jīng)過初次篩選的M個(gè)特征的正負(fù)類分布差異,然后將特征按差異大小進(jìn)行升序排列,選取前N(N CT算法在跟蹤過程中始終使用初始跟蹤框采集和檢測樣本,當(dāng)目標(biāo)尺度發(fā)生變化時(shí),跟蹤窗口不能很好的包圍目標(biāo),易產(chǎn)生采樣誤差。為了避免采集樣本帶來的誤差,本文通過求解相鄰兩幀目標(biāo)仿射變換實(shí)時(shí)更新跟蹤窗口。相鄰兩幀目標(biāo)的仿射變換關(guān)系如下式所示: It=H×It-1 (12) 式中:It表示t幀目標(biāo),It-1表示t-1幀目標(biāo),H為3×3仿射變換矩陣,H可以表示為如下形式: (13) 式中:ρ是尺度因子,θ是旋轉(zhuǎn)角度,(tx,ty)是平移向量。從上述公式可知,未知參數(shù)有4個(gè),所以至少要存在4組匹配的特征點(diǎn)才能計(jì)算出仿射變換參數(shù),而目標(biāo)SIFI特征點(diǎn)可以提供多組(大于4)匹配特征。 跟蹤窗口更新的步驟如下: (1) 提取初始幀目標(biāo)SIFT特征點(diǎn)。 (2) 隨機(jī)選取固定數(shù)目(大于4)的特征點(diǎn),作為目標(biāo)特征庫。 (3) 從第二幀開始,提取當(dāng)前幀目標(biāo)SIFT特征點(diǎn)并與特征庫中的特征點(diǎn)進(jìn)行匹配,得到固定數(shù)目(大于4)的特征匹配組。 (4) 利用匹配的特征點(diǎn)求解目標(biāo)仿射變換參數(shù),更新跟蹤窗口。 (5) 根據(jù)當(dāng)前幀目標(biāo)特征點(diǎn)更新目標(biāo)特征庫。 通過以上方式,獲得相鄰兩幀目標(biāo)的仿射變換參數(shù),實(shí)時(shí)調(diào)整跟蹤窗口尺度,防止目標(biāo)尺度變化影響樣本采集,使跟蹤準(zhǔn)確性和魯棒性更高。 本文算法使用初始幀壓縮特征構(gòu)造分類器,對其他幀壓縮特征進(jìn)行分類,通過其他幀最優(yōu)特征更新分類器,并根據(jù)目標(biāo)變化實(shí)時(shí)更新跟蹤窗口。算法流程如下: 2.4.1初始階段 (1) 手工選取目標(biāo),設(shè)置初次篩選數(shù)目M,二次篩選數(shù)目N,初始特征置信度等。 (2) 根據(jù)目標(biāo)位置和跟蹤窗口尺度,分別采集正負(fù)樣本圖像集合Dα={z‖l(z)-l‖<α}和Dζ,β={z|ζ<‖l(z)-l‖<β},其中l(wèi)是初始幀的跟蹤位置,且α<ζ<β。 (3) 計(jì)算初始幀正負(fù)樣本的多尺度矩形特征,使用基于差集構(gòu)造算法的最大Welch界等式矩陣對樣本投影得到壓縮域特征。 (4) 利用初始幀壓縮特征構(gòu)造分類器。 2.4.2跟蹤階段 (1) 利用樸素貝葉斯分類器對上一幀壓縮特征進(jìn)行分類,得到目標(biāo)位置。 (2) 使用目標(biāo)仿射變換參數(shù)調(diào)整跟蹤窗口大小和位置。 (3) 對上一幀壓縮特征進(jìn)行篩選,得到最優(yōu)特征。 (4) 使用最優(yōu)特征更新分類器參數(shù),為下一幀做準(zhǔn)備。 (5) 重復(fù)跟蹤階段的(1)-(4)進(jìn)行連續(xù)跟蹤。 為了驗(yàn)證本文算法性能,選取4個(gè)標(biāo)準(zhǔn)測試序列進(jìn)行結(jié)果驗(yàn)證,并在測試過程中與CT和MIL算法進(jìn)行對比。實(shí)驗(yàn)平臺(tái)基于Windows7操作系統(tǒng),采用VS2013+OpenCV2.4.9實(shí)現(xiàn)算法運(yùn)行,主要參數(shù)設(shè)置如下:M=100,N=50,初始置信度為1,特征庫中特征點(diǎn)個(gè)數(shù)為30,并從匹配的特征點(diǎn)中隨機(jī)選取6組用于計(jì)算目標(biāo)仿射變換參數(shù)。在跟蹤過程中,采用中心誤差(目標(biāo)實(shí)際中心與跟蹤結(jié)果中心之間的歐式距離)對跟蹤精度進(jìn)行定量評(píng)價(jià)。 Sylvester序列中,目標(biāo)姿態(tài)多次變化,同時(shí)伴有光照和相似物干擾。由圖2可知,當(dāng)目標(biāo)姿態(tài)小幅度變化時(shí),三種算法跟蹤都比較穩(wěn)定;當(dāng)#1040幀時(shí),目標(biāo)向左旋轉(zhuǎn)并靠近光源,CT算法跟丟目標(biāo),MIL算法產(chǎn)生跟蹤漂移;當(dāng)#1306幀時(shí),背景中存在相似物干擾,導(dǎo)致CT和MIL算法均產(chǎn)生較大漂移,而本文算法始終對目標(biāo)進(jìn)行著準(zhǔn)確跟蹤??梢钥闯?,本文算法可有效抵抗光線、姿態(tài)、相似物等因素的干擾,抗干擾能力更強(qiáng)。 圖2 Sylvester carScale序列中,目標(biāo)尺度隨序列越來越大。由圖3可知,CT算法由于在跟蹤中沒有調(diào)整跟蹤窗口,導(dǎo)致跟蹤誤差越來越大;MIL和本文算法可隨目標(biāo)變化實(shí)時(shí)更新跟蹤窗口,但MIL算法以“包”的形式訓(xùn)練樣本,跟蹤窗口更新具有一定的不穩(wěn)定性。而本文算法根據(jù)目標(biāo)仿射變換更新跟蹤窗口,使跟蹤窗口可以很好的包圍目標(biāo),滿足多尺度跟蹤要求,減少采樣誤差。 圖3 carScale jogging序列中,目標(biāo)存在遮擋影響。由圖4可知,當(dāng)#72幀時(shí),跟蹤目標(biāo)完全被障礙物遮擋,三種算法都暫時(shí)失去目標(biāo);當(dāng)#94幀時(shí),遮擋物消失,目標(biāo)重新出現(xiàn),CT和MIL算法已將遮擋物誤認(rèn)為目標(biāo),導(dǎo)致跟蹤失敗。而本文算法可保留目標(biāo)特征,當(dāng)遮擋物消失后,可以重新定位目標(biāo),并對目標(biāo)持續(xù)跟蹤。 圖4 jogging Freeman4序列中,目標(biāo)在靠近鏡頭過程中伴隨著左右旋轉(zhuǎn)和遮擋等干擾因素,嚴(yán)重影響目標(biāo)跟蹤。由圖5可知,當(dāng)#0108幀時(shí),由于目標(biāo)左右旋轉(zhuǎn),CT和MIL算法出現(xiàn)了跟蹤漂移;當(dāng)#0262幀時(shí),經(jīng)過嚴(yán)重遮擋后,CT算法將遮擋物誤認(rèn)為目標(biāo),MIL算法跟丟目標(biāo)。而本文算法能適應(yīng)目標(biāo)變化,始終對目標(biāo)進(jìn)行著有效跟蹤。 圖5 Freeman4 圖6為中心誤差曲線,是對跟蹤精度的定量評(píng)價(jià)。由圖6可知,與CT和MIL算法相比,在4個(gè)測試序列中本文算法具有最低的中心誤差,在跟蹤過程中,有效降低了光線突變、尺度變化、大面積遮擋等因素的影響,可對目標(biāo)進(jìn)行持續(xù)且穩(wěn)定的跟蹤。 圖6 中心誤差曲線 本文算法只使用部分優(yōu)質(zhì)特征更新分類器,間接降低了特征計(jì)算量。跟蹤算法中特征計(jì)算次數(shù)如公式所示: N=m1×n1×NF+m2×n2×NF (14) 式中:m1為初次篩選候選特征,n1是初次篩選特征數(shù)目,m2為二次篩選候選特征,n2是二次篩選特征數(shù)目,NF為特征對應(yīng)部分的計(jì)算次數(shù)。兩種算法的特征計(jì)算次數(shù)如表1所示。由表1可知,本文算法所使用的特征數(shù)遠(yuǎn)小于CT算法所使用的特征數(shù),因此,本文算法特征計(jì)算量也相應(yīng)減少,提高了跟蹤時(shí)效性。 表1 各算法計(jì)算次數(shù)及相關(guān)參數(shù) 次 為比較各算法運(yùn)行速度,將每個(gè)序列測試20次,得出每一幀的平均處理時(shí)間,實(shí)驗(yàn)結(jié)果如表2所示。由表2可知,由于本文在線篩選特征和更新跟蹤窗口,使算法耗時(shí)增加,但平均可達(dá)到27.57 ms/frame,滿足實(shí)時(shí)性要求。 表2 各算法運(yùn)行速度比較 ms/frame 本文提出一種基于最優(yōu)特征更新分類器的壓縮跟蹤算法。首先,優(yōu)化測量矩陣,提高測量矩陣壓縮性能;然后,對壓縮特征進(jìn)行篩選,使用置信度高且正負(fù)類分布差異大的優(yōu)質(zhì)特征更新分類器;最后,針對跟蹤窗口尺度問題,通過計(jì)算相鄰兩幀目標(biāo)仿射變換實(shí)時(shí)更新跟蹤窗口。實(shí)驗(yàn)結(jié)果表明,本文算法可有效抵抗光照、遮擋、尺度等因素的干擾,跟蹤穩(wěn)定性更高,魯棒性更好,且滿足實(shí)時(shí)性要求。與CT算法相比,雖然本文算法減少了特征計(jì)算量,但特征篩選和跟蹤窗口更新還是比較耗時(shí),使得本文算法在實(shí)時(shí)性方面與CT算法存在一定差距,如何減少耗時(shí),將是本文后續(xù)研究重點(diǎn)。 [1] Comaniciu D, Ramesh V, Meer P. Kernel-based object tracking[J]. IEEE Transactions on Pattern Analysis and Ma-chine Intelligence, 2003, 25(5):564-577. [2] Rahmati H, Aamo O M, Stavdahl φ, et al. Kernel-based object tracking for cerebral palsy detection[C]//Proceedings of the 2012 International Conference on Image Processing ,Computer Vision, and Pattern Recognition (IPCV). United States: CSREA Press, 2012:17-23. [3] Li Y M. On incremental and robust subspace learning[J]. Pattern Recognition, 2004,37(7):1509-1518. [4] Ross D A, Lim J, Lin R S, Yang M H. Incremental learning for robust visual tracking[J].International Journal of Computer Vision, 2008,77(1-3):125-141. [5] Mei X,Ling H B.Robust visual tracking using l1minimization[C]//Proceedings of the 12th IEEE International Conference on Computer Vision. Kyoto, Japan: IEEE, 2009:1436-1443. [6] Li H X, Shen C H, Shi Q F.Real-time visual tracking using compressive sensing[C]//Proceedings of the 2011 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Providence,RI,USA:IEEE,2011:1305-1312. [7] Liu X M, Yu T. Gradient feature selection for online boosting[C]//Proceedings of the 11th IEEE International Conference on Computer Vision. Rio de Janeiro, Brazil: IEEE,2007:1-8. [8] Babenko B, Yang M H, Belongie S. Robust object tracking with online multiple instance learning[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011,33(8):1619-1632. [9] Zhang K H, Zhang L, Yang M H. Real-time object tracking via online discriminative feature selection[J]. IEEE Transactions on Image Processing, 2013,22(12):4664-4677. [10] 毛征, 袁建建, 吳珍榮, 等. 基于在線特征選擇的實(shí)時(shí)壓縮跟蹤[J]. 光學(xué)精密工程, 2014,22(3):730-736. [11] 姜樹明, 李鳳嬌, 張?jiān)? 基于多特征融合的壓縮跟蹤算法[J]. 計(jì)算機(jī)工程與應(yīng)用, 2016,52(15):203-207. [12] 朱周元, 張超, 吳小培, 等. 尺度自適應(yīng)的壓縮跟蹤算法[J]. 計(jì)算機(jī)工程與應(yīng)用, 2016,52(14):180-185. [13] Achlioptas D.Database-friendly random projection: Johnson-Linden straus with binary coins[J]. Journal of Computer and System Sciences, 2003,66(4):671-687. [14] Ng A Y, Jordan M I. On discriminative vs. generative classifiers: a comparison of logistic regression and naive Bayes[J].Proceedings of Advances in Neural Information Processing, 2002,28(3):169-187. [15] Diaconis P, Freedman D. Asymptotics of graphical projec-tion pursuit[J]. The Annals of Statistics, 1984,12(3):793-815. [16] 王強(qiáng), 李佳, 沈毅. 壓縮感知中確定性測量矩陣構(gòu)造算法綜述[J]. 電子學(xué)報(bào), 2013,41(10):2041-2050. [17] Comaniciu D, Ramesh V, Meer P.Real-time tracking of nonrigid objects using mean shift[C]//Proceedings of the 2000 IEEE Conference on Computer Vision and Pattern Recognition. Hilton Head Island, USA: IEEE, 2000, 2:142-149.2 本文算法
2.1 優(yōu)化測量矩陣
2.2 分類器更新
2.3 尺度更新過程
2.4 算法流程
3 實(shí)驗(yàn)結(jié)果及分析
3.1 準(zhǔn)確性比較
3.2 算法速度比較
4 結(jié) 語