亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于目標(biāo)特征提取的改進(jìn)型壓縮跟蹤算法

        2017-04-14 05:43:00莊哲民龔家銘謝光成
        關(guān)鍵詞:鄰域特征提取分類器

        莊哲民, 龔家銘, 謝光成, 袁 野

        (汕頭大學(xué) 電子工程系, 廣東 汕頭 515063)

        基于目標(biāo)特征提取的改進(jìn)型壓縮跟蹤算法

        莊哲民, 龔家銘, 謝光成, 袁 野

        (汕頭大學(xué) 電子工程系, 廣東 汕頭 515063)

        本文在傳統(tǒng)的尺度不變特征子(Scale Invariant Feature Transform, SIFT)算法的基礎(chǔ)上, 提出了一種新的基于改進(jìn)的SIFT 壓縮感知跟蹤算法. 該方法一方面通過改進(jìn)壓縮跟蹤算法中分類器的更新策略來提高算法的實(shí)時(shí)性; 另一方面, 通過改進(jìn)SIFT向量鄰域的選取方法來實(shí)現(xiàn)降低向量維度, 從而減少計(jì)算復(fù)雜度. 仿真實(shí)驗(yàn)表明, 該方法不僅可以提高跟蹤目標(biāo)的實(shí)時(shí)性, 而且能夠在發(fā)生目標(biāo)尺度變化、 遮擋、 漂移的情況下對(duì)運(yùn)動(dòng)目標(biāo)進(jìn)行準(zhǔn)確跟蹤.

        運(yùn)動(dòng)目標(biāo)跟蹤; 特征提?。?SIFT; 壓縮感知

        0 引 言

        在視頻圖像處理技術(shù)日益成熟以及相關(guān)應(yīng)用領(lǐng)域日益廣泛的背景下, 視頻跟蹤技術(shù)已成為當(dāng)前研究與關(guān)注的熱點(diǎn)[1]. 由于視頻內(nèi)容的復(fù)雜性、 多變性以及場(chǎng)景的變化, 實(shí)時(shí)跟蹤某個(gè)運(yùn)動(dòng)的對(duì)象具有一定的難度, 特別是當(dāng)對(duì)象發(fā)生形變以及對(duì)象被嚴(yán)重遮擋時(shí), 實(shí)時(shí)跟蹤將變得更為困難. 目前常用的視頻跟蹤方法主要有均值偏移算法[2]、 卡爾曼濾波、 粒子濾波、 基于模板匹配[3]以及尺度不變性特征子(Scale Invariant Feature Transform, SIFT)算法[4]等.

        SIFT作為圖像的一個(gè)局部特征算子, 最早是David Lowe在1999年提出的. 由于SIFT算法具備對(duì)圖像變換較強(qiáng)的適應(yīng)能力, 在圖像匹配以及重建中都有著很好的應(yīng)用, 但因?yàn)镾IFT算法的復(fù)雜性, 導(dǎo)致匹配過程中花費(fèi)的時(shí)間較長(zhǎng). 因此, 本文提出了SIFT的改進(jìn)算法, 其核心一方面是在進(jìn)行特征提取過程中改進(jìn)SIFT的處理鄰域, 精簡(jiǎn)生成的SIFT算子的維度, 從而減輕計(jì)算的復(fù)雜度; 另一方面將壓縮感知技術(shù)[5]用于視頻數(shù)據(jù)的壓縮, 并改進(jìn)壓縮感知中分類器學(xué)習(xí)因子的更新策略, 從而提高了整個(gè)算法的實(shí)時(shí)性.

        仿真實(shí)驗(yàn)結(jié)果表明, 在處理運(yùn)動(dòng)目標(biāo)發(fā)生尺度變化、 旋轉(zhuǎn)、 遮擋等的情況下, 基于目標(biāo)特征提取的改進(jìn)型壓縮跟蹤算法能夠準(zhǔn)確并且高效率地追蹤運(yùn)動(dòng)目標(biāo), 而且能夠自適應(yīng)應(yīng)對(duì)光照改變引起的問題.

        1 基于壓縮感知的SIFT視頻跟蹤算法

        1.1 改進(jìn)的SIFT視頻跟蹤算法

        標(biāo)準(zhǔn)SIFT算法利用目標(biāo)的尺度不變性的特征, 整合相應(yīng)的特征點(diǎn)來鎖定目標(biāo)并加以跟蹤. 針對(duì)SIFT算子維度過高的缺點(diǎn), 本文提出從特征算子的生成鄰域入手, 對(duì)SIFT算子進(jìn)行改進(jìn). 為了保證生成的描述算子具有旋轉(zhuǎn)不變性, 該鄰域是以SIFT特征點(diǎn)為圓心, 以8個(gè)像素單位為半徑繪制的圓形鄰域D. 我們將整個(gè)圓形領(lǐng)域劃分為4個(gè)部分, 半徑為2個(gè)像素單位的內(nèi)圓D1以及環(huán)寬為2個(gè)像素單位的3個(gè)圓環(huán)D2,D3,D4, 圓形鄰域D的數(shù)學(xué)表達(dá)如式(1)所示

        D=(D1,D2,D3,D4).

        (1)

        改進(jìn)后的SIFT圓形鄰域D如圖 1(a) 所示.

        圖 1 改進(jìn)型SIFT特征算子的生成Fig.1 Generation of improved SIFT descriptor

        圖1(a)表示的是一個(gè)16×16像素單位的局部圓形鄰域圖, 其中不同的區(qū)域代表不同的子區(qū)域Di(其中i=1, 2, 3, 4), 圖中每一個(gè)小方格代表一個(gè)像素.

        傳統(tǒng)SIFT算子首先記錄0°, 45°, 90°, 135°, 180°, 225°, 270°, 315°這8個(gè)方向的子向量, 通過整合2×2的像素子單元生成一個(gè)8維向量, 最后生成一個(gè)高達(dá)128維的向量. 而在本文中, 指定圓形鄰域D對(duì)應(yīng)4個(gè)部分, 其中每個(gè)部分Di分別由10個(gè)子向量構(gòu)成, 這些子向量的方向分別是 0°, 36°, 72°, 108°, 144°, 180°, 216°, 252°, 288°, 324°. 因此, 圓形鄰域任意一部分Di的構(gòu)成可由式(2)表示

        式中: 向量組(di1,di2,...,di10)是由改進(jìn)后SIFT鄰域所生成的10個(gè)子向量構(gòu)成, 由于整個(gè)圓形鄰域D生成的SIFT算子向量維度僅為40維, 大大地降低了計(jì)算復(fù)雜度.

        我們以整個(gè)圓形鄰域中的D1部分作為示例, 在圖1(b)中的向量d11~d110就是構(gòu)成向量D1的10個(gè)子向量, 顯然向量D1的維度為10維, 而D2,D3,D43個(gè)向量的生成步驟與D1一致, 改進(jìn)后的SIFT算子通過將圓形鄰域的4個(gè)部分整合在一起后, 最終算子的維度為40維.

        之所以選定圓形鄰域, 是由于其對(duì)旋轉(zhuǎn)不敏感, 從而減少一些特殊狀況對(duì)跟蹤結(jié)果的影響. 為了能夠進(jìn)一步處理復(fù)雜場(chǎng)景中目標(biāo)發(fā)生較大尺度的旋轉(zhuǎn)的問題, 則需要在鄰域的每個(gè)部分Di中尋找幅值最大的那個(gè)子向量dij(i=1, 2, 3, 4;j=1, 2, ..., 10), 并將dij以及之后的所有子向量同時(shí)進(jìn)行相應(yīng)的左移. 假設(shè)在D1找到其中最大的子向量, 假設(shè)該子向量就是d11, 那么D1則不需要進(jìn)行左移, 因?yàn)樵撓蛄考牡谝粋€(gè)子向量即為本向量集中幅值最大的一個(gè). 否則就需要把幅值最大的這個(gè)子向量以及其后的所有向量提前, 相應(yīng)地, 在該幅值最大的子向量之前的所有子向量右移到后部分. 也就是說假設(shè)D1中最大的子向量是d14, 那么前面3個(gè)向量則右移到最后, 其他子向量全部一致性地左移. 最后結(jié)果如式(3)所示

        D=(di4,di5,…,di9,di10,di1,di2,di3)i∈[1,4].

        (3)

        在傳統(tǒng)SIFT算法中, 只將特征點(diǎn)(極值點(diǎn))梯度的相角作為旋轉(zhuǎn)角度, 而不是把鄰域內(nèi)其他點(diǎn)的相角作為旋轉(zhuǎn)角度, 故在本文中, 只將子向量集中第一個(gè)子向量作為左移的參考來處理發(fā)生旋轉(zhuǎn)的狀況.

        實(shí)際的跟蹤過程中很容易發(fā)生光照的驟變或者漸變, 為了減輕相應(yīng)的影響, 故在生成完整的特征算子之前對(duì)其進(jìn)行歸一化處理

        (4)

        在處理非線性光照的情況時(shí), 根據(jù)實(shí)驗(yàn)經(jīng)驗(yàn)設(shè)置臨界值為0.2, 當(dāng)向量中某子向量的幅值超過了臨界值, 則重置為0.2, 相應(yīng)地再重新進(jìn)行歸一化處理使得每個(gè)子向量符合要求.

        可見對(duì)SIFT算子的生成鄰域進(jìn)行改進(jìn)后, 優(yōu)化后的SIFT算子不僅能夠保留傳統(tǒng)算子的優(yōu)秀性能, 而且大大降低了算子的維度, 從而降低了算法的計(jì)算復(fù)雜度, 為了進(jìn)一步提高整個(gè)算法的實(shí)時(shí)性, 將引入壓縮感知理論, 將視頻目標(biāo)跟蹤結(jié)果進(jìn)行優(yōu)化.

        1.2 基于特征提取的壓縮跟蹤算法的實(shí)現(xiàn)

        壓縮感知理論在視頻跟蹤的應(yīng)用當(dāng)中最大的優(yōu)點(diǎn)即為減少計(jì)算復(fù)雜度, 本文將壓縮感知理論與特征提取算法相結(jié)合, 一方面利用壓縮感知使算法降低計(jì)算量, 另一方面利用特征提取來優(yōu)化跟蹤效果. 同時(shí)針對(duì)傳統(tǒng)的壓縮跟蹤算法和特征提取算子存在的缺點(diǎn), 分別對(duì)SIFT算子以及壓縮跟蹤算法中分類器的更新參數(shù)進(jìn)行優(yōu)化, 提高跟蹤算法的實(shí)時(shí)性以獲取更好的跟蹤結(jié)果.

        基于壓縮感知理論, 可以利用滿足RIP條件的測(cè)量矩陣R=Rn×m, 將數(shù)據(jù)從較高維度的信號(hào)x∈Rm投影到較低維度的信號(hào)v∈Rn, 如式(5)所示

        式中:n?m, 在理想情況下, 稀疏矩陣R能夠保留下每個(gè)點(diǎn)對(duì)的初始距離, 并且滿足Johnson-Lindenstrauss定律, 測(cè)量矩陣由式(6)的規(guī)則生成

        在此設(shè)置s=m/4, 通常情況下s=2或3, 可以獲取一個(gè)非常稀疏的隨機(jī)矩陣. 之后利用測(cè)量矩陣就可獲取一個(gè)低維的特征集v(v1,v2,v3,…,vn),n?m, 同時(shí)為了能夠更高效地進(jìn)行建模, 采用貝葉斯分類器對(duì)候選者進(jìn)行分類跟蹤, 分類器生成方式如下[6-8]

        式中:p(·)表征的是測(cè)量值y=1或者y=0時(shí)的概率值或是基于不同的y的測(cè)量值時(shí)的條件概率.

        當(dāng)運(yùn)動(dòng)目標(biāo)發(fā)生漂移時(shí), 由于壓縮跟蹤算法無法控制不斷累計(jì)的誤差, 最終很容易導(dǎo)致失敗, 為了能夠滿足實(shí)時(shí)性要求, 并且控制在跟蹤過程中累加的誤差, 我們引入學(xué)習(xí)率來權(quán)衡分類器中高斯參數(shù)的比重[9]

        式中:d和b分別表示采樣特征集的前一幀與新的采樣值的參數(shù)(均值μ以及協(xié)方差σ)的差值, 學(xué)習(xí)率λ就是影響分類器函數(shù)內(nèi)高斯參數(shù)權(quán)重的因子[10,11]. 由于分類器的參數(shù)分為兩個(gè)部分, 一部分是前一幀中目標(biāo)特征的模版參數(shù), 另一部分是當(dāng)前幀中搜尋位置處新的模版參數(shù). 當(dāng)相鄰兩幀中運(yùn)動(dòng)物體運(yùn)動(dòng)量較小時(shí), 那么由于新的模版參數(shù)改變量很少, 則將學(xué)習(xí)率設(shè)置得大一點(diǎn), 使得分類器參數(shù)基本維持上一幀時(shí)的狀態(tài); 如果相鄰兩幀中的運(yùn)動(dòng)目標(biāo)發(fā)生了劇烈運(yùn)動(dòng), 則需要將λ設(shè)置得小一點(diǎn), 畢竟最新的跟蹤結(jié)果更加依賴于新的一幀中的信息. 綜合來說, 學(xué)習(xí)率λ間接反應(yīng)了運(yùn)動(dòng)目標(biāo)的實(shí)時(shí)狀況.

        為了使學(xué)習(xí)率λ反映運(yùn)動(dòng)目標(biāo)的實(shí)時(shí)狀況, 需要一個(gè)能夠自適應(yīng)調(diào)整的學(xué)習(xí)率來權(quán)衡相鄰幀的變動(dòng)情況, 從而控制分類器的效果. 為了更好地表征相鄰幀圖片的“距離”, 首先計(jì)算出每幅圖片中我們感興趣的追蹤區(qū)域的歸一化直方圖, 并利用巴氏系數(shù)來度量?jī)蓭瑘D片的“距離”, 如式(10)所示

        式中:pi為前一幀圖像追蹤區(qū)域直方圖的離散分布概率, 而qi表征當(dāng)前幀所追蹤區(qū)域最可能的預(yù)測(cè)目標(biāo)區(qū)域直方圖的離散分布概率. 距離ρ就是前后兩幀圖像之間差異的度量, 根據(jù)設(shè)定好的閾值來確定是否對(duì)分類器相應(yīng)參數(shù)進(jìn)行更新, 判定規(guī)則如式(11)所示

        新的學(xué)習(xí)率可定義為

        學(xué)習(xí)率λ′的取值范圍是(0, 1), 它與兩幀距離ρ成反比, 在實(shí)際的跟蹤過程中, 首幀與末幀圖像變化不大時(shí), 學(xué)習(xí)率λ′的取值會(huì)較??; 相應(yīng)的, 若是首幀與末幀中運(yùn)動(dòng)目標(biāo)的位置情況相差甚大, 則λ′會(huì)被調(diào)整變大. 因此, 自適應(yīng)的學(xué)習(xí)率能夠有效地控制誤差的累積, 當(dāng)發(fā)生漂移和旋轉(zhuǎn)的情況時(shí), 能較好地避免跟蹤失敗, 采用自適應(yīng)的學(xué)習(xí)率不僅沒有給整個(gè)解決方案增加很多的計(jì)算量, 且能改善復(fù)雜場(chǎng)景下的運(yùn)動(dòng)目標(biāo)跟蹤效率.

        改進(jìn)的SIFT特征集是從前一幀的目標(biāo)區(qū)域采樣獲得, 然后從初始特征點(diǎn)里面隨機(jī)選擇固定數(shù)量的特征點(diǎn)作為初始特征點(diǎn)庫, 其中隨機(jī)選取的特征點(diǎn)數(shù)量f事先會(huì)設(shè)置好. 本文的式(13)~式(15)為各個(gè)特征庫內(nèi)是互不影響的特征點(diǎn), 分別以u(píng),v,w進(jìn)行表示, 其中第一級(jí)特征點(diǎn)庫Sf表示為

        Sf=(u1,u2,u3,…,uf).

        (13)

        提取當(dāng)前幀的特征點(diǎn)集, 與前一幀所提取獲得特征點(diǎn)庫Sf進(jìn)行匹配, 匹配之后的特征點(diǎn)集則可表示為

        Sm=(v1,v2,v3,…,vm).

        (14)

        顯而易見, 匹配的數(shù)量m一定不會(huì)超過f.

        RANSC(Random Sample Concensus) 優(yōu)化算法則用來將現(xiàn)有匹配之后的特征點(diǎn)進(jìn)行優(yōu)化, 除去錯(cuò)誤匹配的特征點(diǎn), 然后獲得更準(zhǔn)確的特征點(diǎn)集Sp, 如式(15)所示

        Sp=(w1,w2,w3,…,wp).

        (15)

        此外, 還可以利用已經(jīng)獲取的特征點(diǎn)集求取變換矩陣中的未知數(shù), 然后用來求解前一幀與當(dāng)前幀目標(biāo)尺寸的縮放比例和角度. 選取已經(jīng)凈化獲得的特征點(diǎn)集, 并在當(dāng)前幀中隨機(jī)選擇若干數(shù)量的特征點(diǎn), 最終構(gòu)成固定數(shù)量f的新的特征點(diǎn)庫. 將上述步驟從初始幀到最后一幀, 往復(fù)地在相鄰兩幀中施行, 就可以求得目標(biāo)尺寸的縮放比例, 算法就可以自適應(yīng)地調(diào)整追蹤窗口的大小, 減小跟蹤誤差.

        2 算法仿真實(shí)現(xiàn)與分析

        針對(duì)發(fā)生遮擋、 光照以及旋轉(zhuǎn)的場(chǎng)景中的目標(biāo)跟蹤, 我們分別從公共目標(biāo)跟蹤視頻庫中選取face片段與coke片段, 并在i7-4710MQ, 8G主機(jī)上進(jìn)行調(diào)試, 獲取如圖 2 的跟蹤結(jié)果, 其中a矩形框?yàn)樵級(jí)嚎s跟蹤算法的跟蹤結(jié)果, b矩形框則是基于特征提取改進(jìn)型壓縮感知跟蹤算法的追蹤結(jié)果. 從整個(gè)跟蹤過程當(dāng)中隨機(jī)抽取6幀出來進(jìn)行對(duì)比, 可見人臉在從未遮擋到遮住部分再到完整再現(xiàn)整個(gè)過程中兩種方法的跟蹤結(jié)果.

        圖 2 face人臉跟蹤效果對(duì)比Fig.2 Face contrast experiment

        如圖 2 所示, 第1幀為初始化跟蹤目標(biāo), 在發(fā)生遮擋以前, a框與b框的效果基本一致, 然后從第22幀開始有書籍分別從各種角度遮擋住人臉, 在第27幀、 第92幀、 第157幀時(shí)a框都不能像b那樣穩(wěn)定地追蹤運(yùn)動(dòng)目標(biāo), 而且在最后目標(biāo)重新暴露在視頻中的時(shí)候, a框也無法恢復(fù)跟蹤. 我們可以看出b框不論在哪種遮擋的情況下都能穩(wěn)定地追蹤到目標(biāo), 而采用原始?jí)嚎s跟蹤算法的a框跟蹤效果并不理想. 其原因一是在改進(jìn)型的壓縮跟蹤算法的分類器參數(shù)λ是實(shí)時(shí)更新的, 而在傳統(tǒng)算法中該學(xué)習(xí)率的值是設(shè)置為固定的0.85; 二是改進(jìn)型的算法融合了優(yōu)化的特征提取算法SIFT來強(qiáng)化跟蹤效果, 能在復(fù)雜的場(chǎng)景下跟蹤目標(biāo).

        圖 3 coke可樂罐跟蹤效果對(duì)比Fig.3 Coke cans contrast experiment

        在第二個(gè)場(chǎng)景中, 視頻流中會(huì)出現(xiàn)光照、 遮擋和旋轉(zhuǎn)這幾種常見的問題, 同樣采用傳統(tǒng)的壓縮跟蹤算法與改進(jìn)型壓縮跟蹤算法分別進(jìn)行實(shí)驗(yàn), 隨機(jī)選取其中的6幀進(jìn)行對(duì)比, 其中b框代表的是采用基于特征提取的改進(jìn)型壓縮跟蹤算法的實(shí)驗(yàn)結(jié)果, a框代表的是傳統(tǒng)壓縮跟蹤算法的跟蹤結(jié)果, 具體見圖 3.

        如圖 3 所示, 同樣第一幀為初始化選定跟蹤目標(biāo), 當(dāng)人拿著罐頭在燈泡以及植被附近運(yùn)動(dòng)且罐頭僅僅自身旋轉(zhuǎn)時(shí), 我們可以看到在第16幀附近時(shí)兩種算法的跟蹤效果基本一致; 但在第34幀時(shí), 當(dāng)罐頭在移至離燈泡較遠(yuǎn)處并被植被的葉子所遮擋的時(shí)候, a框已經(jīng)部分脫離了要跟蹤的物體; 第102幀時(shí)罐頭自身發(fā)生旋轉(zhuǎn), 此時(shí)的a框依然脫離了想要跟蹤的目標(biāo); 再到第274幀時(shí), a框完全脫離目標(biāo), 無法再跟上運(yùn)動(dòng)目標(biāo)的節(jié)奏, 然后b框卻從始至終穩(wěn)定地將目標(biāo)跟蹤在框內(nèi).

        可見由于物體的運(yùn)動(dòng)不可預(yù)測(cè), 跟蹤過程中的分類器參數(shù)如果只單憑借經(jīng)驗(yàn)設(shè)置固定值而不隨物體實(shí)際運(yùn)動(dòng)實(shí)時(shí)更新的話, 則跟蹤效果總是不能如意; 再則就是在復(fù)雜場(chǎng)景中, 對(duì)運(yùn)動(dòng)目標(biāo)進(jìn)行高效率的特征提取, 那樣才能保證在發(fā)生了光照變化、 遮擋、 目標(biāo)旋轉(zhuǎn)等情況下仍然能穩(wěn)定追蹤到前景目標(biāo).

        為了數(shù)值化測(cè)量本方法的計(jì)算復(fù)雜度, 顯示其優(yōu)越性, 故將改進(jìn)型壓縮感知跟蹤算法與傳統(tǒng)壓縮跟蹤算法(CT)分別在同一PC機(jī)上重復(fù)進(jìn)行調(diào)試運(yùn)行20遍, 取各個(gè)過程的均值記錄如表 1 所示.

        表 1 改進(jìn)型壓縮跟蹤算法與傳統(tǒng)壓縮跟蹤算法的運(yùn)行耗時(shí)對(duì)比

        本文算法除了具有較高的實(shí)時(shí)性的優(yōu)點(diǎn)之外, 經(jīng)過改進(jìn)后的SIFT算子與壓縮感知理論融合后的算法還能夠在跟蹤的準(zhǔn)確度上有較高的優(yōu)越性. 中心位置錯(cuò)誤率是用來定量評(píng)估追蹤矩形的中心和實(shí)際目標(biāo)中心的歐幾里德距離. 為了提高該數(shù)據(jù)的準(zhǔn)確性, 在軟-硬件平臺(tái)分別進(jìn)行仿真本文的算法、 傳統(tǒng)的CT算法、 TLD算法以及OAB(Online AdaBoost)算法20遍, 分別取中心位置錯(cuò)誤率的平均值進(jìn)行對(duì)比.

        表 2 中心位置錯(cuò)誤率對(duì)比(以單個(gè)像素為單位)

        通過觀察表 2 中的數(shù)據(jù), 相比于其他算法, 本文算法在兩個(gè)視頻流中的跟蹤具有較強(qiáng)的魯棒性.

        3 結(jié) 論

        本文在傳統(tǒng)SIFT 算法的基礎(chǔ)上, 通過將改進(jìn)的SIFT算法與壓縮感知理論進(jìn)行融合, 獲得基于改進(jìn)SIFT特征提取的壓縮跟蹤算法. 該算法一方面利用SIFT算子對(duì)目標(biāo)進(jìn)行實(shí)時(shí)檢測(cè)跟蹤的優(yōu)秀性能, 并且克服了原算子高維度的缺點(diǎn); 另一方面將壓縮感知理論引入到視頻跟蹤算法中來, 進(jìn)一步優(yōu)化跟蹤結(jié)果, 提高實(shí)時(shí)性能, 從而在復(fù)雜的環(huán)境下, 能夠魯棒地跟蹤運(yùn)動(dòng)目標(biāo).

        [1] Kalal Z, Mikolajczyk K, Matas J. Tracking-learning-detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(7): 1409-1422.

        [2] David G. Lowe. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision, 2004, 60(2): 91-110.

        [3] Grabner H, Leistner C, Bischof H. Semi-supervised on-line boosting for robust tracking[C]. European Conference on Computer Vision, Marseille, France, October 12-18, 2008: 234-247.

        [4] 李新德, 劉苗苗, 徐葉帆. 一種基于2D和3D SIFT特征級(jí)融合的一般物體識(shí)別算法[J]. 電子學(xué)報(bào), 2015, 43(11): 2277-2283. Li Xinde, Liu Miaomiao, Xu Yefan. A recognition algorithm of generic objects based on feature-level fusion of 2D and 3D SIFT descriptors[J]. Acta Electronica Sinica, 2015, 43(11): 2277-2283. (in Chinese)

        [5] 石光明, 劉丹華, 高大化, 等. 壓縮感知理論及其研究進(jìn)展[J]. 電子學(xué)報(bào), 2009, 37(5): 1070-1081. Shi Guangming, Liu Danhua, Gao Dahua, et al. Advances in theory and application of compressed sensing[J]. Acta Electronica Sinica, 2009, 37(5): 1070-1081. (in Chinese)

        [6] 謝昕, 徐殷, 熊煥東, 等. 基于壓縮感知的SIFT圖像匹配算法的研究[J]. 華東交通大學(xué)學(xué)報(bào), 2015, 32(6): 115-121. Xie Xin, Xu Yin, Xiong Huandong, et al. Research on SIFT image matching algorithm based on compressed sensing[J]. Journal of East China Jiaotong University, 2015, 32(6): 115-121. (in Chinese)

        [7] Babu R, Patrick P, fez, et al. Robust tracking with motion estimation and local Kernel-based color modeling[J]. Image Vision Computing, 2007, 25(8): 1205-1216.

        [8] Kim T K, Woodley T, Stenger B, et al. Online multiple classifier boosting for object tracking[C]. Computer Vision and Pattern Recognition Workshops (CVPRW), IEEE Xplore, 2010: 1-6.

        [9] Matthews I, Ishikawa T, Baker S. The template update problem[J]. IEEE transactions on pattern analysis and machine intelligence, 2004, 26( 6): 810-815.

        [10] Javed O, Ali S, Shah M. Online detection and classification of moving objects using progressively improving detectors[C]. Computer Vision and Pattern Recognition, 2005. CVPR 2005. IEEE Computer Society Conference on, 2005: 696-701.

        [11] Williams O, Blake A, Cipolla R. Sparse bayesian learning for efficient visual tracking[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2005, 27( 8): 1292-1304.

        The Improved Compression Tracking Algorithm Based on Video Target Feature Extraction

        ZHUANG Zhemin, GONG Jiaming, XIE Guangcheng, YUAN Ye

        (Dept. of Electronic Engineering, Shantou University, Shantou 515063, China)

        An improved SIFT target tracking algorithm based on compressed sensing is proposed in this paper. The real-time performanceis improved by improving updating strategy of the classifier in the compressive theory.On the other hand, The vector neighborhood of SIFT has been improved to decrease the vector dimension and the complexity of calculation. Simulations and experiments show that this method not only can improve the real-time performance of tracking target, but also can carry on the tracking of moving target accurately in the event of a target scale variation, occlusion shelter, drifting.

        video target tracking; feature extraction; SIFT; compressive sensing

        1671-7449(2017)02-0093-07

        2016-12-20

        國(guó)家自然科學(xué)基金資助項(xiàng)目(61471228); 廣東省應(yīng)用型科技研發(fā)專項(xiàng)項(xiàng)目(2015B020233018)

        莊哲民(1965-), 男, 教授, 博士, 主要從事圖像處理, 無線傳感網(wǎng)絡(luò)方面研究

        TN911.73

        A

        10.3969/j.issn.1671-7449.2017.02.001

        猜你喜歡
        鄰域特征提取分類器
        稀疏圖平方圖的染色數(shù)上界
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        基于鄰域競(jìng)賽的多目標(biāo)優(yōu)化算法
        BP-GA光照分類器在車道線識(shí)別中的應(yīng)用
        Bagging RCSP腦電特征提取算法
        加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
        結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機(jī)的TSK分類器
        關(guān)于-型鄰域空間
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        基于LLE降維和BP_Adaboost分類器的GIS局部放電模式識(shí)別
        免费人妻精品一区二区三区 | av日韩一区二区三区四区| 免费在线观看播放黄片视频| 日韩在线观看入口一二三四 | 日韩一区二区三区久久精品| 日本护士口爆吞精视频| 国产公开免费人成视频| 国产内射爽爽大片视频社区在线| 亚洲加勒比久久88色综合 | 午夜精品一区二区三区的区别| 图图国产亚洲综合网站| 97人妻无码免费专区| 精品麻豆一区二区三区乱码| 精品久久综合日本久久综合网| 免费无遮挡无码永久在线观看视频| 国产办公室秘书无码精品99| 国产精品永久免费| 白天躁晚上躁麻豆视频| 猫咪免费人成网站在线观看| 波多野结衣一区二区三区免费视频 | 老熟女高潮一区二区三区| 在线观看一区二区女同| 久久精品韩国日本国产| 国产av一区二区网站| 精品久久久久久亚洲综合网| 国产精品美女久久久久av福利| 99久久久无码国产精品6| 中文字幕人妻丝袜美腿乱| 国产第19页精品| 成人在线免费视频亚洲| 中文字幕日韩一区二区不卡| 国产一品二品三区在线观看| 精品人妻一区二区三区在线观看| 免费国产线观看免费观看| 人人妻人人妻人人片av| 国产精品 精品国内自产拍| 少妇性l交大片免费快色| 亚洲中文字幕第15页| 国产精品沙发午睡系列| 国产精品毛片一区二区三区| 亚洲 精品 综合 精品 自拍|