亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        遮擋情況下多尺度壓縮感知跟蹤

        2015-04-02 06:22:25張麗娟李澤仁
        紅外技術(shù) 2015年12期
        關(guān)鍵詞:魯棒置信度分類器

        張麗娟,紀(jì) 峰,常 霞,李澤仁

        ?

        遮擋情況下多尺度壓縮感知跟蹤

        張麗娟,紀(jì) 峰,常 霞,李澤仁

        (北方民族大學(xué)數(shù)學(xué)與信息科學(xué)學(xué)院,寧夏 銀川 750021)

        針對(duì)現(xiàn)有在線學(xué)習(xí)跟蹤算法中目標(biāo)在線模型更新錯(cuò)誤導(dǎo)致跟蹤漂移的問(wèn)題,提出一種在線模型自適應(yīng)更新的目標(biāo)跟蹤算法:首先利用壓縮感知技術(shù)的高效性,對(duì)多尺度圖像特征進(jìn)行降維,并提取多尺度樣本來(lái)實(shí)現(xiàn)目標(biāo)尺度自適應(yīng)更新,再由提取的正負(fù)樣本低維圖像特征訓(xùn)練樸素貝葉斯分類器,利用分類器輸出置信度最大處目標(biāo)樣本完成目標(biāo)跟蹤,并依據(jù)當(dāng)前目標(biāo)置信度來(lái)自適應(yīng)在線模型更新速率,減少了遮擋帶來(lái)的目標(biāo)錯(cuò)誤更新。實(shí)驗(yàn)表明:該方法在尺度變化、局部和全局遮擋、光照變化等情況下均能完成魯棒跟蹤,平均跟蹤成功率較原始?jí)嚎s感知跟蹤算法提高了20.3%。

        目標(biāo)跟蹤;在線學(xué)習(xí);壓縮感知

        0 引言

        目標(biāo)跟蹤是當(dāng)前計(jì)算機(jī)視覺領(lǐng)域內(nèi)的一個(gè)重要研究方向,在視頻監(jiān)控、運(yùn)動(dòng)分析、目標(biāo)識(shí)別等方面得到了廣泛應(yīng)用[1],為了完成魯棒的目標(biāo)跟蹤任務(wù),目標(biāo)在線模型受到了廣泛關(guān)注,而基于目標(biāo)在線模型,當(dāng)前跟蹤算法可分為生成式跟蹤算法[2-4]和判別式跟蹤算法[5-8]。

        生成式跟蹤算法通過(guò)提取目標(biāo)信息來(lái)完成目標(biāo)表示,然后利用在線學(xué)習(xí)到的目標(biāo)模型在當(dāng)前幀中基于最小重構(gòu)誤差完成目標(biāo)定位,但該類方法忽略了判別性較強(qiáng)的背景信息。判別式跟蹤算法將目標(biāo)跟蹤構(gòu)建為一個(gè)二元分類問(wèn)題,同時(shí)提取目標(biāo)與背景信息來(lái)訓(xùn)練一個(gè)分類器,由分類器決定當(dāng)前幀目標(biāo)位置,因此也稱為基于檢測(cè)的跟蹤算法(tracking by detection)。Grabner等[5]提出了一種在線半監(jiān)督boosting跟蹤算法,利用未標(biāo)簽樣本克服了分類器錯(cuò)誤更新而導(dǎo)致的跟蹤漂移問(wèn)題;Babenko等[6]將多示例學(xué)習(xí)的思想引入目標(biāo)跟蹤,利用包含有正負(fù)樣本的“樣本袋”來(lái)代替單一樣本送入分類器訓(xùn)練,提高了分類器的判別能力;近來(lái)Kalal等[7]提出了一種結(jié)構(gòu)化約束準(zhǔn)則來(lái)提升分類器對(duì)正負(fù)樣本的選擇,提升了分類器的抗背景干擾能力。然而這類算法普遍復(fù)雜度較高,為此限制了它們的實(shí)時(shí)應(yīng)用。

        文獻(xiàn)[8]在充分利用上述兩類算法的各自優(yōu)勢(shì)的基礎(chǔ)上,提出了一種實(shí)時(shí)跟蹤算法——壓縮感知跟蹤(Compressive Tracking,CT),通過(guò)建立一個(gè)隨機(jī)投影矩陣對(duì)多尺度圖像特征進(jìn)行降維,并通過(guò)樸素貝葉斯分類器進(jìn)行分類,其高效性引起了學(xué)者的廣泛關(guān)注:文獻(xiàn)[9]通過(guò)過(guò)飽和分塊提升了CT的抗局部遮擋能力,但計(jì)算復(fù)雜度也隨之增高;文獻(xiàn)[10]利用模板匹配策略提升了分類器的判別能力,文獻(xiàn)[11]用互補(bǔ)的多個(gè)矩陣代替CT中的投影矩陣。然而上述算法依然存在以下問(wèn)題:第一,缺乏對(duì)目標(biāo)尺度的自適應(yīng)更新;第二,缺乏對(duì)遮擋的有效判斷,進(jìn)而導(dǎo)致目標(biāo)在線模型錯(cuò)誤更新。

        針對(duì)以上兩個(gè)問(wèn)題,本文在利用壓縮感知理論提取圖像特征的高效性的基礎(chǔ)上,采取多尺度樣本來(lái)實(shí)現(xiàn)目標(biāo)尺度自適應(yīng)更新,在由分類器得到當(dāng)前幀目標(biāo)位置后,依據(jù)當(dāng)前目標(biāo)置信度來(lái)自適應(yīng)在線模型更新速率,減少了遮擋帶來(lái)的目標(biāo)錯(cuò)誤更新,進(jìn)而能夠完成魯棒的跟蹤任務(wù)。

        1 壓縮感知跟蹤算法

        隨機(jī)投影矩陣是壓縮感知理論中的重要概念,其作用是將高維圖像特征壓縮成低維特征,如下式:

        =(1)

        式中:r~(0,1),在2或3之間隨機(jī)選擇,因此隨機(jī)投影矩陣中的大量元素為零,大大減少了計(jì)算量。

        式中:和是矩形濾波器的寬和高;和是樣本窗口的寬和高。通過(guò)公式(1)高維特征將被壓縮成低維特征,文獻(xiàn)[8]中采取類Haar特征的加權(quán)組合并采取積分圖像加速,如圖1所示。

        其中:

        對(duì)所有采樣樣本計(jì)算其()值,選擇最大的候選樣本作為最終跟蹤結(jié)果,再在其周圍采樣新的正樣本,計(jì)算其特征值對(duì)公式(5)進(jìn)行更新:

        式(6)中:1,1分別是正樣本圖像特征的均值和方差;為學(xué)習(xí)率,原始算法中固定為0.85。

        2 本文算法

        從以上的分析可以發(fā)現(xiàn)CT算法存在兩大問(wèn)題:一是式(3)中多尺度濾波器采用固定大小,一旦目標(biāo)尺度發(fā)生變化將無(wú)法提取到正確的特征信息;二是在線模型中采用固定學(xué)習(xí)速率,當(dāng)目標(biāo)受到遮擋或光照變化等因素影響時(shí)模型將產(chǎn)生更新錯(cuò)誤。為此本文提出改進(jìn)策略:采取多尺度樣本來(lái)實(shí)現(xiàn)目標(biāo)尺度自適應(yīng)更新;依據(jù)當(dāng)前目標(biāo)置信度來(lái)自適應(yīng)在線模型更新速率。

        2.1 多尺度更新機(jī)制

        CT算法式(3)中多尺度濾波器(即圖像特征)的位置和大小固定不變,當(dāng)目標(biāo)尺度發(fā)生變化時(shí)將不再適用,而為了自適應(yīng)目標(biāo)尺度變化,本文首先將圖像特征根據(jù)濾波器窗口大小歸一化,如下式:

        圖1 隨機(jī)投影矩陣提取特征

        0×中的每一個(gè)元素表示為0×(r,r,r,h),其中r、rr、h分別代表矩形濾波器的位置、寬和高。在尺度下,R×的每一個(gè)元素則表示為((round(rs),(round(rs),(round(rs), (round(hs))。

        2.2 學(xué)習(xí)率自適應(yīng)更新機(jī)制

        從式(6)可以發(fā)現(xiàn)CT算法采用固定學(xué)習(xí)率更新在線模型,當(dāng)目標(biāo)受到遮擋或光照變化等因素影響時(shí)模型將產(chǎn)生更新錯(cuò)誤,容易導(dǎo)致跟蹤漂移。實(shí)驗(yàn)表明由分類器()得到的每一幀目標(biāo)置信度值是不一樣的,因此可以采用當(dāng)前幀目標(biāo)置信度值來(lái)決定式(6)中學(xué)習(xí)率的大小,如下式:

        式中:H()代表第幀的目標(biāo)置信度值;max()代表當(dāng)前所有幀目標(biāo)置信度值中的最大值;代表第幀學(xué)習(xí)率的大小,當(dāng)目標(biāo)被局部遮擋或受光照變化影響時(shí),目標(biāo)置信度值較小,所以取較小值,而當(dāng)H()<0時(shí),則說(shuō)明樣本被分類器判定為負(fù)樣本,當(dāng)前目標(biāo)處于被完全遮擋狀態(tài),學(xué)習(xí)率應(yīng)當(dāng)置為0,目標(biāo)在線模型不再更新。

        2.3 目標(biāo)定位

        3 實(shí)驗(yàn)與結(jié)果分析

        實(shí)驗(yàn)采用常見的具有3段不同挑戰(zhàn)性的視頻,并與原始CT算法[8]以及多示例學(xué)習(xí)MIL算法[6]進(jìn)行對(duì)比分析,實(shí)驗(yàn)利用OpenCV2.4.9在VS2010上進(jìn)行調(diào)試。視頻主要特性如表1所示。

        表1 實(shí)驗(yàn)視頻的不同特性

        3.1 參數(shù)設(shè)置

        分類器學(xué)習(xí)率初始化為1=0.85,搜索窗口半徑=25,正樣本采樣半徑=4,負(fù)樣本內(nèi)外采樣半徑=8和=30,尺度更新機(jī)制中=1.02,=1,也即尺度空間共3個(gè)尺度。

        3.2 結(jié)果分析

        圖2 多尺度隨機(jī)投影矩陣

        圖4顯示了本文算法的抗遮擋能力,Suv序列在第185幀左右目標(biāo)逐步被樹木遮擋,CT算法由于采用固定學(xué)習(xí)率不斷將錯(cuò)誤信息更新到在線模型而逐漸丟失目標(biāo),MIL算法在第350幀左右目標(biāo)被遮擋后也出現(xiàn)了同樣的問(wèn)題,而本文算法一旦判定完全遮擋則不再更新在線模型,全程完成了魯棒跟蹤任務(wù)。

        表2 算法跟蹤成功率對(duì)比

        圖5顯示了本文算法的抗光照變化能力,David序列中目標(biāo)從暗處走向亮處,且目標(biāo)多次出現(xiàn)形變,CT算法和MIL算法由于缺乏對(duì)目標(biāo)信息的有效判斷,跟蹤框逐漸偏移目標(biāo),而本文算法的全程魯棒跟蹤顯示了本文算法的抗光照變化能力。

        圖3 視頻序列跟蹤誤差

        Fig.3 Video sequence tracking error

        圖4 Suv序列跟蹤結(jié)果

        圖6顯示了本文算法的抗尺度變化能力,Car4序列中的目標(biāo)尺度越來(lái)越小,本文算法的多尺度機(jī)制能夠不斷捕捉到這種尺度變化,因此跟蹤框隨著目標(biāo)減小而減小,且能對(duì)目標(biāo)進(jìn)行很好的定位,而CT算法和MIL算法缺乏尺度更新機(jī)制在目標(biāo)從橋下走出時(shí)丟失了目標(biāo)。

        4 結(jié)論

        針對(duì)現(xiàn)有在線學(xué)習(xí)跟蹤算法中存在的跟蹤漂移問(wèn)題,本文在壓縮感知跟蹤算法的基礎(chǔ)上,采用在線模型自適應(yīng)更新機(jī)制以及目標(biāo)尺度自適應(yīng)更新機(jī)制,提出了一種簡(jiǎn)單且高效的目標(biāo)跟蹤算法。三組不同挑戰(zhàn)性的實(shí)驗(yàn)表明:本文方法在目標(biāo)被長(zhǎng)時(shí)或短時(shí)遮擋、光照變化及尺度變化等情況下均能完成魯棒跟蹤,跟蹤成功率較原始?jí)嚎s感知算法提高了20.3%。

        圖5 David序列跟蹤結(jié)果

        圖6 Car4序列跟蹤結(jié)果

        [1] Wu Y, Lim J, Yang M H. Online object tracking: a benchmark[C]//, 2013: 2411-2418(doi: 10.1109/CVPR.2013.312).

        [2] Ross D, Lim J, Lin R, et al. Incremental learning for robust visual tracking[C]//, 2008, 77(1-3): 125-141.

        [3] Mei X, Ling H. Robust visual tracking and vehicle classification via sparse representation[J]., 2011, 33(11): 2259-2272.

        [4] Li H, Shen C, Shi Q. Real- time visual tracking using compressive sensing[C]//, 2011: 1305- 1312 (doi: http: //doi. ieeecomputersociety. org/ 10.1109/ CVPR. 2011. 5995483).

        [5] Grabner H, Leistner C, Bischof H. Semi- supervised on-line boosting for robust tracking[C]//, 2008, Part I: 234-247.

        [6] Babenko B, Yang M H, Belongie S. Robust object tracking with online multiple instance learning[J]., 2011, 33: 1619-1632.

        [7] Kalal Z, Matas J, Mikolajczyk K. Tracking -learning-detection[J]., 2012, 34: 1409-1422.

        [8] Zhang K H, Zhang L, Yang M H. Real time compressive tracking [C]//, 2012, 7574: 864 - 877.

        [9] Zhu Qiuping, Yan Jia, Deng Dexiang. Compressive tracking via over- saturated sub-region classifiers[J]., 2013, 17(6): 448-455.

        [10] Jing Jing, Xu Guangzhu, Lei Bangjun. Using appearance rematching to improve compressive tracking[C]//, 2013: 28-33(doi: 10.1145/ 2499788. 2499825).

        [11] 朱秋平, 顏佳, 張虎, 等. 基于壓縮感知的多特征實(shí)時(shí)跟蹤[J]. 光學(xué)精密工程, 2013, 21(2): 437-444.

        Zhu Qiuping, Yan Jia, Zhang Hu, et al. Real-time tracking using multiple features based on compressive sensing[J]., 2013, 21(2): 437-444.

        Multi-scale Compression Perception Tracking under Occlusion

        ZHANG Li-juan,JI feng,CHANG Xia,LI Ze-ren

        (,750021,)

        In order to deal with the drift problem by updating error in current online learning tracking algorithms, a new adaptive update tracking algorithm is proposed. First of all, based on the efficiency of compressed sensing, the multi-scale image feature space is decreased, and multi-scale samples are exacted to update the target scale. Secondly, a naive Bayes classifier is trained by low dimension image features from positive and negative samples. Experimental results show that the proposed algorithm can complete the robust tracking under the condition of scale changes, partial and full occlusion, illumination changes, etc. Tracking successful rate is improved by 20.3% compared with the original compressive tracking.

        object tracking,online learning,compressive sensing

        TP391

        A

        1001-8891(2015)12-1052-06

        2015-07-20;

        2015-10-05.

        張麗娟,女,河北省滄州人。碩士研究生,主要研究方向?yàn)閳D形圖像處理。E-mail:372160407@qq.com。

        國(guó)家自然科學(xué)基金項(xiàng)目,編號(hào):61440044,61102008,61462002,61163017;寧夏自然科學(xué)基金項(xiàng)目,編號(hào):NZ13097,國(guó)家民委科研項(xiàng)目,編號(hào):14BFZ003。

        猜你喜歡
        魯棒置信度分類器
        硼鋁復(fù)合材料硼含量置信度臨界安全分析研究
        基于學(xué)習(xí)的魯棒自適應(yīng)評(píng)判控制研究進(jìn)展
        正負(fù)關(guān)聯(lián)規(guī)則兩級(jí)置信度閾值設(shè)置方法
        BP-GA光照分類器在車道線識(shí)別中的應(yīng)用
        目標(biāo)魯棒識(shí)別的抗旋轉(zhuǎn)HDO 局部特征描述
        加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
        結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機(jī)的TSK分類器
        基于Cauchy魯棒函數(shù)的UKF改進(jìn)算法
        置信度條件下軸承壽命的可靠度分析
        軸承(2015年2期)2015-07-25 03:51:04
        目標(biāo)軌跡更新的點(diǎn)到點(diǎn)魯棒迭代學(xué)習(xí)控制
        欧美日韩中文国产一区发布| 日本中文字幕乱码中文乱码| 一区二区三区精品少妇| 最爽无遮挡行房视频| 日本在线观看一区二区三| 久久9精品区-无套内射无码| 在线观看免费人成视频| 欧美亚洲国产精品久久久久| 99久久无色码中文字幕鲁信| 黄色一区二区三区大全观看| 国内女人喷潮完整视频| 国产精品爽爽va在线观看无码| 18禁国产美女白浆在线| 中文字幕一区二区三区乱码人妻| 欧洲多毛裸体xxxxx| 成年无码aⅴ片在线观看| 亚洲一区区| 天堂久久一区二区三区| 午夜熟女插插xx免费视频| 又白又嫩毛又多15p| 美女高潮流白浆视频在线观看| 日本免费精品免费视频| 暖暖 免费 高清 日本 在线| 国产欧美亚洲精品a| 欧美精品久久久久久三级| 日本女优中文字幕在线播放| 和黑人邻居中文字幕在线 | 免费va国产高清不卡大片 | 久热这里只有精品视频6| 亚洲国产精品500在线观看| 在线观看亚洲视频一区二区| 无码人妻h动漫中文字幕| 国产成人www免费人成看片| 国产人成视频免费在线观看| 国内自拍速发福利免费在线观看| 无码少妇一区二区性色av| 久久久精品2019免费观看| 韩国无码精品人妻一区二 | 影音先锋男人av鲁色资源网| 北条麻妃在线视频观看| 中文字幕被公侵犯的丰满人妻|