亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于SURF和Camshift的目標(biāo)跟蹤算法研究

        2018-06-21 06:30:42李建建王春陽(yáng)
        關(guān)鍵詞:魯棒性直方圖顏色

        李建建,王春陽(yáng)

        (長(zhǎng)春理工大學(xué) 電子信息工程學(xué)院,長(zhǎng)春 130022)

        近年來(lái),對(duì)于運(yùn)動(dòng)目標(biāo)的跟蹤一直是機(jī)器視覺(jué)領(lǐng)域一個(gè)關(guān)鍵的研究方向[1]。盡管出現(xiàn)了非常多的方法,但是如何快速有效的跟蹤目標(biāo),仍然是一個(gè)非常值得研究的課題,隨著圖像處理技術(shù)的發(fā)展和開(kāi)源代碼的發(fā)布使得許多目標(biāo)跟蹤算法得以實(shí)現(xiàn)并改進(jìn),Camshift[2]算法就是其中一個(gè)。

        Camshift算法是一種基于顏色直方圖信息的半自動(dòng)跟蹤算法,需要人工選取第一幀的搜索窗口,而且只采用HSV顏色模型H通道的顏色信息,當(dāng)目標(biāo)發(fā)生遮擋或者背景有相似顏色干擾時(shí),該算法容易丟失跟蹤目標(biāo)[3]。David G Lowe等提出的SIFT[4]算法在目標(biāo)發(fā)生旋轉(zhuǎn)、尺度縮放、亮度變化的情況下仍具有良好的魯棒性,但SIFT算法缺點(diǎn)是計(jì)算量大,耗時(shí)時(shí)間長(zhǎng)[5]。Herbert Bay等人對(duì)SIFT算法作出改進(jìn)得到SURF[6]算法,SURF算法魯棒性好且時(shí)間復(fù)雜度低,適合實(shí)時(shí)性要求較高的場(chǎng)合。

        針對(duì)上述問(wèn)題,本文給出在Camshift算法基礎(chǔ)上結(jié)合SURF算法的目標(biāo)跟蹤技術(shù)方法。利用SURF特征的位置信息彌補(bǔ)了Camshift只依靠顏色信息的缺陷,提高了目標(biāo)在發(fā)生遮擋或者背景有相似顏色干擾時(shí)的跟蹤準(zhǔn)確性,并具有較強(qiáng)的魯棒性和有效性。

        1 Camshift算法

        Camshift算法是一種基于顏色直方圖的連續(xù)自適應(yīng)均值漂移算法。設(shè)(x,y)為搜索窗口中的像素位置,I(x,y)是概率分布圖中(x,y)的像素值,Camshift算法過(guò)程如下:

        (1)人工確定第一幀搜索窗口;

        (2)提取H分量計(jì)算出搜索窗口的顏色概率直方圖,根據(jù)顏色概率直方圖,得到新搜索窗口的大小和質(zhì)心位置,分別計(jì)算:

        零階矩:

        x、y的一階矩:

        搜索窗口的質(zhì)心位置:

        搜索窗口的寬度s=2M00256;長(zhǎng)度l=1.2s;

        (3)重復(fù)(2),直到質(zhì)心位置變化小于設(shè)定的閾值,或者當(dāng)循環(huán)運(yùn)算的次數(shù)達(dá)到設(shè)定的最大次數(shù)時(shí),就停止運(yùn)算;

        (4)在后一幀視頻圖像中用(3)中的結(jié)果初始化搜索窗口的大小和質(zhì)心位置,跳轉(zhuǎn)到步驟(2)繼續(xù)進(jìn)行目標(biāo)跟蹤。

        2 SURF算法

        2.1 特征點(diǎn)檢測(cè)和描述子生成

        (1)特征點(diǎn)檢測(cè)

        SURF算法通過(guò)計(jì)算相關(guān)Hessian矩陣并找到尺度空間的極值點(diǎn)來(lái)檢測(cè)特征點(diǎn)。對(duì)于圖像中某個(gè)像素點(diǎn)=(x,y)。箱式濾波同圖像卷積后的結(jié)果分別設(shè)為Dxx、Dxy、Dyy,引入誤差參數(shù)β,則Hessian矩陣的行列式表示為:

        其中,β近似取0.9,當(dāng)det(H)值為負(fù)數(shù)時(shí),該點(diǎn)為非極值點(diǎn);當(dāng)其值為正數(shù)時(shí),該點(diǎn)可能是局部極值點(diǎn),當(dāng)局部極值點(diǎn)大于或者小于立體領(lǐng)域其他相鄰的26個(gè)點(diǎn)時(shí),認(rèn)為該局部極值點(diǎn)作為立體領(lǐng)域的特征點(diǎn)。

        (2)特征點(diǎn)主方向確定

        在尺度空間σ下,以特征點(diǎn)為中心,以6σ為半徑,分別計(jì)算出該區(qū)域的每個(gè)點(diǎn)在x,y方向的哈爾小波響應(yīng)(波長(zhǎng)為4σ),并給每個(gè)響應(yīng)值賦予相應(yīng)的高斯權(quán)重系數(shù),然后以特征點(diǎn)為中心,用π 3扇形區(qū)域范圍遍歷整個(gè)圓形區(qū)域,選擇其中最長(zhǎng)的向量作為該特征點(diǎn)的主方向,對(duì)圖像中每個(gè)特征點(diǎn)進(jìn)行相同運(yùn)算,得到每個(gè)特征點(diǎn)的主方向。

        (3)特征點(diǎn)描述子生成

        以特征點(diǎn)為中心,選取一邊垂直于主方向邊長(zhǎng)為20σ的正方形窗口,將該窗口分為4×4的子窗口,計(jì)算每個(gè)子窗口主方向和垂直方向的哈爾小波響應(yīng),分別記為dx、dy,然后對(duì)每個(gè)子窗口的響應(yīng)值和響應(yīng)值的絕對(duì)值分別求和表示為∑dx、∑dy、∑|dx|、∑ |dy|,這樣每個(gè)子窗口形成一個(gè)四維分量的矢量V=(∑||dx,∑|dy|,∑|dy|),每個(gè)特征點(diǎn)的描述子則由64維特征向量構(gòu)成。

        2.2 SURF特征匹配定位目標(biāo)

        對(duì)于兩幅圖像中的每個(gè)特征點(diǎn),本文采用快速近似最近鄰搜索算法進(jìn)行匹配[7]。為了驗(yàn)證SURF算法的快速有效性,運(yùn)用SURF算法和SIFT算法分別對(duì)同一組目標(biāo)模板和視頻幀進(jìn)行特征點(diǎn)、檢測(cè)描述子生成和特征點(diǎn)匹配,如圖1所示。圖1(a)為SURF算法的匹配結(jié)果,圖1(b)為SIFT算法的匹配結(jié)果,表1為SURF和SIFT算法的性能比較。

        圖1 SURF和SIFT算法的匹配結(jié)果

        表1 SURF和SIFT算法性能比較

        從表1可以看出,SURF算法總耗時(shí)大約是SIFT算法的1/3,時(shí)間復(fù)雜度更低,雖然SIFT算法檢測(cè)出的特征點(diǎn)更多,但是耗時(shí)過(guò)長(zhǎng),難以滿足本文快速定位的要求,所以SURF算法相比SIFT算法更適合用于實(shí)時(shí)目標(biāo)跟蹤。

        圖2(a)中,運(yùn)用SURF算法將目標(biāo)模板與含有目標(biāo)的視頻幀進(jìn)行匹配時(shí),可以定位目標(biāo),并獲得目標(biāo)質(zhì)心及大小,圖2(b)中,運(yùn)用SURF算法將目標(biāo)模板與不含目標(biāo)的視頻幀進(jìn)行匹配時(shí),未定位出目標(biāo)位置。由此,在獲得目標(biāo)先驗(yàn)知識(shí)的情況下,可利用SURF算法定位目標(biāo),繼續(xù)進(jìn)行動(dòng)態(tài)目標(biāo)跟蹤。

        圖2 SURF算法定位目標(biāo)效果

        3 基于SURF和Camshift的目標(biāo)跟蹤算法

        首先運(yùn)用SURF算法將幀圖像與目標(biāo)模板進(jìn)行特征匹配,計(jì)算出目標(biāo)在幀圖像中的位置和大小,并將結(jié)果作為Camshift算法第一幀的搜索窗口,然后利用當(dāng)前幀搜索窗口與目標(biāo)模板兩者之間的顏色概率直方圖的Hellinger距離判定跟蹤結(jié)果是否準(zhǔn)確。采用k個(gè)bin的顏色概率直方圖,目標(biāo)模板的顏色概率直方圖P=(p1,...pk),當(dāng)前幀搜索窗口的顏色直方圖為Q=(q1,...qk),則Hellinger距離計(jì)算公式為:

        兩個(gè)直方圖越相似,則H(P,Q)值越?。粌蓚€(gè)直方圖相差越大,則H(P,Q)值越大[8]。經(jīng)過(guò)多次實(shí)驗(yàn),當(dāng)H(P,Q)大于0.5時(shí),本文認(rèn)為跟蹤失敗,再次運(yùn)用SURF算法重定位運(yùn)動(dòng)目標(biāo),將跟蹤繼續(xù)進(jìn)行下去,如果H(P,Q)小于0.5,則認(rèn)為跟蹤成功,將當(dāng)前幀的跟蹤結(jié)果作為目標(biāo)模板。

        基于SURF和Camshift的目標(biāo)跟蹤算法流程圖如圖3所示。

        圖3 基于SURF和Camshift的目標(biāo)跟蹤算法流程圖

        4 實(shí)驗(yàn)結(jié)果及分析

        本算法的實(shí)驗(yàn)硬件環(huán)境為Intel(R)Core(TM)i7-4710HQ,主頻是2.5GHz,8G內(nèi)存,軟件開(kāi)發(fā)環(huán)境是Windows7操作系統(tǒng),Microsoft Visual Studio 2010配置OpenCV庫(kù)。標(biāo)準(zhǔn)測(cè)試視頻名為David3,總幀數(shù)為252幀。

        下面分別使用傳統(tǒng)的Camshift算法和本文提出的算法對(duì)測(cè)試視頻進(jìn)行測(cè)試,對(duì)比兩種算法的跟蹤效果,試驗(yàn)中選取黃色上衣男子為跟蹤目標(biāo)并存儲(chǔ)為目標(biāo)模板,如圖4所示,選取第176幀,181幀,187幀,195幀作跟蹤效果對(duì)比。

        圖4 傳統(tǒng)的Camshift算法和本文算法跟蹤效果對(duì)比

        如圖4(a)所示,在第176幀中,人工確定的搜索窗口難以收斂到跟蹤物體的邊緣[9],而使用本文算法,如圖(b)所示,目標(biāo)的特征點(diǎn)一般位于邊緣處,利用目標(biāo)模板和圖像幀進(jìn)行SURF特征匹配定位目標(biāo),并自動(dòng)快速確定首幀的搜索窗口,減少了其他非目標(biāo)像素點(diǎn)的干擾;在第181幀中,跟蹤目標(biāo)過(guò)程中背景出現(xiàn)相似顏色像素干擾,傳統(tǒng)的Camshift算法跟蹤窗口發(fā)生擴(kuò)大,本文算法具有較好的跟蹤精確性;如圖4(a)所示,在187幀中,目標(biāo)發(fā)生遮擋,跟蹤窗口誤跟蹤到與目標(biāo)有相似顏色的樹(shù)木,本文算法中檢測(cè)到目標(biāo)模板與搜索窗口的顏色概率直方圖Hellinger距離大于給定閾值,利用SURF算法將目標(biāo)模板與圖像幀進(jìn)行特征匹配,將得到的包含目標(biāo)的最小立式矩形作為Camshift算法的搜索窗口,如圖4(b)所示,在第195幀中,本文算法繼續(xù)對(duì)原目標(biāo)進(jìn)行有效跟蹤。通過(guò)圖4傳統(tǒng)的Camshift算法和本文算法的跟蹤效果對(duì)比,本文算法具有較好的魯棒性和有效性。

        5 結(jié)論

        本文提出一種基于SURF和Camshift的目標(biāo)跟蹤算法,驗(yàn)證了SURF算法在實(shí)時(shí)性要求較高的場(chǎng)合有更好的應(yīng)用,使用Hellinger距離作為跟蹤效果的判定標(biāo)準(zhǔn),利用SURF算法匹配結(jié)果得到特征點(diǎn)的位置、方向信息對(duì)Camshift算法進(jìn)行約束和更新,經(jīng)過(guò)實(shí)驗(yàn)證明本文算法具有較強(qiáng)的魯棒性,可對(duì)單目標(biāo)進(jìn)行有效實(shí)時(shí)跟蹤。

        [1]翟衛(wèi)欣,程承旗.基于Kalman濾波的Camshift運(yùn)動(dòng)跟蹤算法[J].北京大學(xué)學(xué)報(bào):自然科學(xué)版,2015,51(05):799-804.

        [2]HSIEH C J,LUM K Y.Automated image tracking based on the Camshift algorithm with adaboost and target trajectory and size estimation[C].11th IEEE International Conference on Control& Automation(ICCA),2014:918-923.

        [3]修春波,魏世安.顯著性直方圖模型的Camshift跟蹤方法[J].光學(xué)精密工程,2015,23(06):1749-1757.

        [4]Amerini I,Barni M,Caldeli R,et al.Removal and injection of keypoints for SIFT-based copy-move counter-forensics[J].Eurasip Journal on Information Secutity,2013(1):1-12.

        [5]彭欣,劉富強(qiáng),宋華軍.基于SURF目標(biāo)跟蹤算法研究[J].長(zhǎng)春理工大學(xué)學(xué)報(bào):自然科學(xué)版,2011,34(02):138-141.

        [6]張銳娟,張建奇,楊翠.基于SURF的圖像配準(zhǔn)方法研究[J].紅外與激光工程,2009,38(01):160-165.

        [7]趙璐璐,耿國(guó)華,李康,等.基于SURF和快速近似最近鄰搜索的圖像匹配算法[J].計(jì)算機(jī)應(yīng)用研究,2013,30(03):921-923.

        [8]李偉湋,賈修一.基于Hellinger距離的特征選擇算法[J].計(jì)算機(jī)應(yīng)用,2010,30(06):1530-1532.

        [9]張宏志,張金換,岳卉,等.基于CamShift的目標(biāo)跟蹤算法[J].計(jì)算機(jī)工程與設(shè)計(jì),2006,27(11):2012-2014.

        猜你喜歡
        魯棒性直方圖顏色
        統(tǒng)計(jì)頻率分布直方圖的備考全攻略
        符合差分隱私的流數(shù)據(jù)統(tǒng)計(jì)直方圖發(fā)布
        荒漠綠洲區(qū)潛在生態(tài)網(wǎng)絡(luò)增邊優(yōu)化魯棒性分析
        基于確定性指標(biāo)的弦支結(jié)構(gòu)魯棒性評(píng)價(jià)
        用直方圖控制畫面影調(diào)
        認(rèn)識(shí)顏色
        基于非支配解集的多模式裝備項(xiàng)目群調(diào)度魯棒性優(yōu)化
        西南交通大學(xué)學(xué)報(bào)(2016年6期)2016-05-04 04:13:11
        特殊顏色的水
        基于直方圖平移和互補(bǔ)嵌入的可逆水印方案
        中国少妇和黑人做爰视频| 无码乱人伦一区二区亚洲一| 亚洲av无码精品色午夜蛋壳| 99久久综合九九亚洲| 三级黄片一区二区三区| 加勒比东京热中文字幕| 亚洲av中文无码乱人伦在线播放| 亚洲色偷偷色噜噜狠狠99| 亚洲αv在线精品糸列| 蜜臀av在线一区二区尤物| 免费网站内射红桃视频| 国产精品美女久久久久久久久| 日韩精品一区二区三区四区| 女同另类专区精品女同| 亚洲线精品一区二区三区| 国产真实夫妇交换视频| 国产亚洲精品福利在线| 久久中文字幕国产精品| 国产av精品一区二区三| 亚洲精品中文字幕无码蜜桃| 91久久国产自产拍夜夜嗨| 精品蜜桃av免费观看| 国产黄大片在线观看画质优化 | 人妻夜夜爽天天爽三区丁香花| 日本爽快片18禁免费看| 久久精品国产一区二区蜜芽| 国产av精品一区二区三区视频| 亚洲精品无码不卡在线播he| 国产精品福利视频一区| 无码一区二区三区人| 护士人妻hd中文字幕| 亚洲av无码专区在线播放| 国产色噜噜| 亚洲人妻av综合久久| 亚洲国产精品久久艾草| 成人国产精品免费视频| 亚洲国产精品成人久久av| 亚洲色图三级在线观看| 99精品一区二区三区无码吞精| 精品熟女少妇免费久久| 在线视频一区二区国产|