亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于示例選擇的目標(biāo)跟蹤改進(jìn)算法

        2015-06-27 08:26:03汪榮貴蔣守歡梁啟香
        計(jì)算機(jī)工程 2015年1期

        李 想,汪榮貴,楊 娟,蔣守歡,梁啟香

        (合肥工業(yè)大學(xué)計(jì)算機(jī)與信息學(xué)院,合肥230009)

        基于示例選擇的目標(biāo)跟蹤改進(jìn)算法

        李 想,汪榮貴,楊 娟,蔣守歡,梁啟香

        (合肥工業(yè)大學(xué)計(jì)算機(jī)與信息學(xué)院,合肥230009)

        多示例學(xué)習(xí)是一種處理包分類問題的新型學(xué)習(xí)模式,傳統(tǒng)基于多示例學(xué)習(xí)的目標(biāo)跟蹤算法在自適應(yīng)獲取正包時(shí)受到無益或有害示例的干擾,不能很好地提取目標(biāo)的鑒別性特征。為此,設(shè)計(jì)基于核密度估計(jì)的示例選擇方法,剔除訓(xùn)練集中的無益示例或有害示例,提高多示例學(xué)習(xí)算法的有效性,并在此基礎(chǔ)上提出一種基于示例選擇的目標(biāo)跟蹤改進(jìn)算法,針對負(fù)示例占多數(shù)的情況建立核密度估計(jì)函數(shù)來精簡正包中的示例,使用精簡后的樣本數(shù)據(jù)進(jìn)行訓(xùn)練學(xué)習(xí),最終實(shí)現(xiàn)對目標(biāo)的實(shí)時(shí)跟蹤。實(shí)驗(yàn)結(jié)果表明,該算法在光照變化、目標(biāo)部分遮擋及形體變化等情形下都具有較好的穩(wěn)健性。

        多示例學(xué)習(xí);有害示例;核密度估計(jì);示例選擇;穩(wěn)健性;目標(biāo)跟蹤

        1 概述

        視頻中運(yùn)動目標(biāo)的自動跟蹤是計(jì)算機(jī)視覺的重要研究內(nèi)容,在安全監(jiān)控、視頻內(nèi)容分析、機(jī)器人導(dǎo)航等領(lǐng)域都有著廣闊的應(yīng)用前景。然而,在實(shí)際跟蹤過程中,通常會遇到光照變化、復(fù)雜背景的干擾,以及目標(biāo)的部分遮擋和形體變化等情況,這些都會導(dǎo)致跟蹤精度下降甚至跟蹤漂移或丟失。因此,跟蹤算法的穩(wěn)健性在視頻跟蹤過程中具有非常關(guān)鍵的作用。

        穩(wěn)健性跟蹤算法是視頻目標(biāo)跟蹤研究的重點(diǎn)和難點(diǎn),其具有代表性的研究成果主要有:文獻(xiàn)[1]提出了基于MeanShift的目標(biāo)跟蹤方法,該方法在物體遇到目標(biāo)遮擋和形體變形時(shí)仍能實(shí)時(shí)的跟蹤,但當(dāng)背景與目標(biāo)相似情況下該算法魯棒性較差;文獻(xiàn)[2]提出使用支持向量機(jī)(SVM)對目標(biāo)進(jìn)行跟蹤,但該算法計(jì)算量大跟蹤實(shí)時(shí)性弱;文獻(xiàn)[3]提出基于子塊的積分直方圖跟蹤方法,該跟蹤方法可以很好地處理部分遮擋問題,但不能較好地適應(yīng)形體變化;文獻(xiàn)[4]提出基于AdaBoost級聯(lián)的人臉檢測方法,使用Haar-like小波特征和積分圖方法提取人臉特征訓(xùn)練AdaBoost,并對AdaBoost訓(xùn)練出的強(qiáng)分類器級聯(lián)對人臉進(jìn)行檢測,并取得較好的檢測結(jié)果;文獻(xiàn)[5]提出基于分類的目標(biāo)跟蹤方法,在線的方式訓(xùn)練Boosting特征分類器提取鑒別性特征分離目標(biāo)和背景,實(shí)現(xiàn)了對目標(biāo)物體地跟蹤。Boosting算法通過對復(fù)雜背景模型的在線學(xué)習(xí),可以較好地處理跟蹤時(shí)出現(xiàn)的干擾和自身變化等情況。然而Boosting算法在訓(xùn)練階段利用已知的概念標(biāo)記類更新分類器,可是在實(shí)際應(yīng)用中能標(biāo)記的信息少而模糊[6],導(dǎo)致Boosting算法具有內(nèi)在不確定性即樣本的歧義性[7]。

        多示例學(xué)習(xí)(Multiple Instance Learning,MIL)[8]由Dietterich于上個(gè)世紀(jì)90年代提出。這種學(xué)習(xí)的訓(xùn)練樣本由包組成,因而在處理標(biāo)記模糊性問題上比傳統(tǒng)的學(xué)習(xí)方法更加靈活。Paul Viola提出一種基于多示例學(xué)習(xí)目標(biāo)跟蹤方法,該方法通過對包的訓(xùn)練學(xué)習(xí)將內(nèi)在不確定性傳遞給學(xué)習(xí)算法,以此構(gòu)造MILBoost分類器對目標(biāo)進(jìn)行檢測。文獻(xiàn)[9-10]在Paul Viola的基礎(chǔ)上采用自適應(yīng)外觀模型,并改進(jìn)MILBoost算法將其應(yīng)用到目標(biāo)跟蹤,取得了較好的跟蹤效果。但對于MILBoost跟蹤系統(tǒng)來說,通過跟蹤結(jié)果來預(yù)測目標(biāo)的最佳位置,根據(jù)該點(diǎn)位置在一定搜索半徑內(nèi)選擇出樣本訓(xùn)練集正包和負(fù)包,然而在搜索半徑內(nèi)獲取滿足條件的訓(xùn)練樣本較多,會阻礙多示例學(xué)習(xí)的有效性。事實(shí)上,該方法得到的正包訓(xùn)練樣本占主導(dǎo)地位的往往是負(fù)示例,此時(shí)通過提取目標(biāo)鑒別性特征來更新分類器反而降低跟蹤精度。

        本文通過對多示例進(jìn)行在線篩選的思想解決上述問題,提出一種基于高斯核密度估計(jì)的在線示例選擇方法。通過對多示例學(xué)習(xí)框架和核密度估計(jì)方法的研究,以及對獲取的訓(xùn)練樣本中負(fù)示例占多數(shù)現(xiàn)象的分析,利用AdaBoost分類器訓(xùn)練得到的特征集,建立基于負(fù)示例的高斯核密度估計(jì)函數(shù)來在線篩選正包中的示例,用篩選過后的正包在線更新AdaBoost分類器預(yù)測目標(biāo)的最佳位置,由此提高跟蹤算法的穩(wěn)健性。

        2 多示例學(xué)習(xí)與核密度估計(jì)

        2.1 多示例學(xué)習(xí)

        多示例學(xué)習(xí)被認(rèn)為是與監(jiān)督學(xué)習(xí)、非監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)并列的一種新型機(jī)器學(xué)習(xí)框架,文獻(xiàn)[11]提出多示例學(xué)習(xí)概念,將每一種分子作為一個(gè)包,分子的每一個(gè)同分異構(gòu)體作為包中的一個(gè)示例。拓展到理論研究上即訓(xùn)練樣本集由若干個(gè)概念標(biāo)記的包組成,每個(gè)包包含若干個(gè)沒有概念標(biāo)記的示例,若一個(gè)包中至少包含一個(gè)正樣本,則該包標(biāo)記為正,若一個(gè)包中的所有示例都是負(fù)樣本,則該包標(biāo)記為負(fù)。通過對訓(xùn)練包的學(xué)習(xí),盡可能正確地對訓(xùn)練集之外包的概念標(biāo)記進(jìn)行預(yù)測[12]。

        在傳統(tǒng)的學(xué)習(xí)框架的訓(xùn)練模式下,處理的樣本是一類已知的標(biāo)記類,然而實(shí)現(xiàn)應(yīng)用中可提供的標(biāo)記信息少而模糊,而多示例學(xué)習(xí)處理的訓(xùn)練樣本是以包為單位,只需知道包的概率標(biāo)記而不是示例,在處理標(biāo)記模糊性方面更加靈活[13]。多示例學(xué)習(xí)方法在圖像檢索、數(shù)據(jù)挖掘以及圖像分割、目標(biāo)檢測和目標(biāo)跟蹤等領(lǐng)域具有良好的應(yīng)用前景。

        傳統(tǒng)鑒別性學(xué)習(xí)算法訓(xùn)練二值分類器來估算p(y|x),{(x1,y1),(x2,y2),…,(xn,yn)}表示訓(xùn)練樣本集(xi表示樣本,yi表示二值標(biāo)記),在多示例學(xué)習(xí)框架里訓(xùn)練數(shù)據(jù)由包組成,表示形式為{X1,X2,…,Xn},其中,包Xi={xi1,xi2,…,xim};xij表示包中示例,yi∈{0,1}是包的概念標(biāo)記,則包的概念標(biāo)記定義為:

        其中,yij是示例標(biāo)記,實(shí)際訓(xùn)練過程中yij是未知的。由多示例學(xué)習(xí)框架得知,訓(xùn)練集由若干個(gè)具有概念標(biāo)記的包組成,每個(gè)包包含若干沒有概念標(biāo)記的示例。從訓(xùn)練角度來看,如果訓(xùn)練數(shù)據(jù)過多,會導(dǎo)致跟蹤算法的計(jì)算復(fù)雜度增加,且訓(xùn)練數(shù)據(jù)中會存在對分類結(jié)果無用的示例,導(dǎo)致分類器精度下降。由于非參數(shù)核密度估計(jì)方法不需要假定數(shù)據(jù)的密度分布形式,直接從數(shù)據(jù)中估計(jì)未知密度函數(shù)。因此,本文在訓(xùn)練階段運(yùn)用核密度估計(jì)方法對訓(xùn)練樣本進(jìn)行篩選。

        2.2 核密度估計(jì)

        核密度估計(jì)是由Rosenblatt和Parzen提出的一種非參數(shù)檢驗(yàn)方法。該方法不使用數(shù)據(jù)分布的先驗(yàn)知識,是一種從數(shù)據(jù)樣本本身出發(fā)研究數(shù)據(jù)分布特征的方法,因而在統(tǒng)計(jì)學(xué)和應(yīng)用領(lǐng)域均受到高度重視。下面簡要介紹核密度估計(jì)基本知識。

        設(shè)數(shù)據(jù){x1,x2,…,xn}取自連續(xù)分布,在任意點(diǎn)x處的總體概率密度函數(shù)f(x)的核密度定義為:

        其中,h為預(yù)先給定的正數(shù),通常稱為窗寬或者平滑參數(shù)。

        (x)表現(xiàn)的好壞與核函數(shù)K(u)和窗寬h有關(guān),當(dāng)窗寬較大時(shí)(x)的估計(jì)較穩(wěn)定,方差波動較小,反之,當(dāng)窗寬較小時(shí),估計(jì)的偏差較小,使得f^(x)的波動方差較大。

        為了保持概率密度估計(jì)的合理性,通常要求核密度滿足以下條件:

        常用的核函數(shù)有以下3種:

        (1)高斯核函數(shù):

        (2)Epanechnikov核函數(shù):

        (3)Biweight核函數(shù):

        依據(jù)高斯模型運(yùn)算簡單的優(yōu)勢,核密度估計(jì)模型對隨機(jī)序列分布描述精確的特點(diǎn),本文將非參數(shù)的核密度估計(jì)方法和高斯模型結(jié)合,綜合利用兩者的優(yōu)勢與特點(diǎn)對示例進(jìn)行選擇。

        3 基于高斯核密度估計(jì)的示例選擇

        本文利用多示例學(xué)習(xí)框架對目標(biāo)進(jìn)行跟蹤時(shí),采用自適應(yīng)方式選擇訓(xùn)練樣本數(shù)據(jù),通過預(yù)測目標(biāo)物體的最佳位置l?,將滿足條件X+={||l(x)-l?(x)||<r}選取得到的訓(xùn)練樣本集作為正包中的示例,而滿足條件X-={r<||l(x)-l?(x)||<β}選取得到的訓(xùn)練樣本集作為負(fù)包中的示例。

        這種方式選擇得到的訓(xùn)練樣本會存在以下2個(gè)問題:(1)訓(xùn)練樣本提取的特征過多,增加計(jì)算復(fù)雜度;(2)訓(xùn)練樣本包會存在干擾示例,并且干擾示例具有絕對的選擇權(quán),會弱化分類器的分類結(jié)果,導(dǎo)致下一幀跟蹤目標(biāo)的預(yù)測位置錯(cuò)誤。因此,在基于多示例框架的跟蹤過程中,需要摒棄對分類過程產(chǎn)生干擾的無益示例或者有害示例[14]。其中,無益示例指一些類中不能提供有用的信息的示例;有害示例指在分類過程提供錯(cuò)誤信息導(dǎo)致分類錯(cuò)誤的示例。

        假設(shè)對于某個(gè)示例集合C={a1,a2,…,as}(ai是類中的示例)。運(yùn)用多樣性密度(Diverse Density, DD)算法來計(jì)算某個(gè)示例ai在全部包的概率大小,如式(4)所示:

        根據(jù)Bayes理論計(jì)算ai概率大小其復(fù)雜度高,而且DD方法在選擇示例方面更加嚴(yán)格,因?yàn)樗偸侵荒軐ふ乙粋€(gè)示例。這種示例選擇方法獲得的訓(xùn)練集中仍存在很多無益示例或者有害示例。所以,本文提出基于核密度估計(jì)的示例選擇,以有效減少訓(xùn)練集中無益示例或者有害示例對分類結(jié)果的干擾,提高目標(biāo)跟蹤算法的穩(wěn)健性。

        假設(shè){x1,x2,…,xn}是n個(gè)離散的樣本,其服從的分布概率密度函數(shù)f(x),則密度估計(jì)為:

        其中均勻核函數(shù)為:

        若將式(5)窗寬放寬就得到一般核密度估計(jì)表示形式(式(2))。

        為提高核密度估計(jì)的計(jì)算效率,本文采用運(yùn)算簡單高斯核密度,即高斯核密度估計(jì)函數(shù)。假設(shè)fei為某一特征,則fei的高斯核密度函數(shù)如下:

        其中,mi表示第i個(gè)負(fù)包中掃描示例得到fei個(gè)數(shù);xij表示第i負(fù)包中第j個(gè)示例的特征值;μ表示對應(yīng)特征fei負(fù)包示例的均值;σ表示對應(yīng)特征fei負(fù)包示例的方差。

        示例選擇的基本原理如下:

        (1)利用AdaBoost分類器訓(xùn)練得到的特征集,對于每個(gè)特征計(jì)算負(fù)包中示例的特征值。

        (2)建立相應(yīng)的高斯核密度分布函數(shù)fei(x)。

        (3)計(jì)算正包中的示例特征值,如果對于正包中的某示例的分布多次滿足建立的高斯核密度分布(即正包中的示例滿足分布兩垂直虛線之間,如圖1所示),則認(rèn)為它是負(fù)示例,將其剔除;反之,則保留。

        圖1 高斯核密度函數(shù)分布

        將通過高斯核密度估計(jì)函數(shù)篩選過后得到訓(xùn)練樣本的正包,與原負(fù)包的樣本一起訓(xùn)練AdaBoost分類器,再對目標(biāo)物體進(jìn)行分類并預(yù)測跟蹤目標(biāo)的最佳位置。但是每當(dāng)有新的數(shù)據(jù){(x1,y1),(x2,y2),…,(xn,yn)}時(shí),若還采用原有的高斯核密度估計(jì)分布函數(shù)對正包進(jìn)行篩選,會直接導(dǎo)致跟蹤精度的下降,算法的穩(wěn)健性減弱。因此,本文采用如下策略對示例選擇算法的高斯核進(jìn)行在線更新:

        圖2舉例說明基于高斯核密度估計(jì)的示例選擇算法,其中,實(shí)現(xiàn)為正包樣本;虛線為負(fù)包樣本(圖中所框定出來的正負(fù)包樣本只是訓(xùn)練樣本一部分)。

        圖2 示例選擇說明

        4 穩(wěn)健性目標(biāo)跟蹤算法

        本文提出一種基于高斯核密度估計(jì)示例選擇的目標(biāo)跟蹤算法。該算法在訓(xùn)練階段,剔除正包中無益或者有害的示例,并訓(xùn)練AdaBoost分類器進(jìn)而對目標(biāo)物體進(jìn)行跟蹤。然而跟蹤的初始化階段并不進(jìn)行示例選擇,而是通過人機(jī)交互方式提取樣本,并訓(xùn)練AdaBoost分類器。以圖3為例,先將第1幀作為訓(xùn)練幀,通過手動定義樣本的位置信息并規(guī)定樣本統(tǒng)一的高寬來選取正負(fù)包,將目標(biāo)位置四周的樣本如實(shí)線框所示樣本作為正包中的示例,而遠(yuǎn)離目標(biāo)的樣本如虛線框框所示樣本作為負(fù)包中的示例。圖3中黑色實(shí)框的樣本為正包樣本,白色虛框的樣本為負(fù)包樣本(其中圖中所框定出來的正負(fù)包樣本只是訓(xùn)練樣本一部分),并對得到的訓(xùn)練樣本集利用AdaBoost分類器進(jìn)行訓(xùn)練。

        圖3 訓(xùn)練樣本手動定義示例

        本文訓(xùn)練AdaBoost訓(xùn)練器所用特征是Haarlike特征[15],如圖4所示。利用積分圖方式求出圖像中所有區(qū)域像素和,針對圖中的矩形特征的計(jì)算,通過計(jì)算特征矩形的端點(diǎn)積分圖,再進(jìn)行簡單的加減運(yùn)算得到特征值,這樣計(jì)算方式大大提高計(jì)算速度。

        圖4 Haar-like特征

        訓(xùn)練AdaBoost分類器除了得到的特征集建立高斯核密度估計(jì)外;同時(shí)還利用得到的弱分類器組合成強(qiáng)分類器來預(yù)測下一目標(biāo)的最佳位置l?,目標(biāo)的最佳位置l?采用具有連續(xù)置信度輸出的LUT型弱分類器,如圖5所示,其中,hj(x)表示特征對應(yīng)的弱分類器,Wk+1和Wk

        -1分別表示作為正示例和負(fù)示例的權(quán)重之和(其中,k表示第k區(qū)間),將正包中示例的置信度高作為當(dāng)前幀t的目標(biāo)位置即為目標(biāo)的最佳位置

        圖5 LUT型弱分類器

        綜上所述,本文跟蹤算法步驟如下:

        Setp 1初始幀,通過人機(jī)交互獲取樣本集,運(yùn)用積分圖計(jì)算Harr-like特征,并訓(xùn)練AdaBoost分類器,所有的特征均值和方差都設(shè)置為0。

        Setp 2預(yù)測當(dāng)前幀t的最佳位置,根據(jù){||l(x)-l?(x)||<r}和{r<||l(x)-l?(x)||<β}將樣本分為正包和負(fù)包。

        Setp 3并利用上一幀訓(xùn)練AdaBoost分類器得到的特征集,計(jì)算負(fù)包中的示例的Harr-like特征,建立高斯核密度函數(shù),在線更新均值μ和方差σ。

        Setp 4計(jì)算正包中某示例是否滿足某個(gè)特征的高斯核密度分布,通過對每個(gè)示例設(shè)置計(jì)數(shù)變量來判斷;如果某示例多次滿足高斯核密度函數(shù)分布,則將該示例刪除,以此篩選正包中的示例。

        Setp 5在線更新AdaBoost分類器。

        Setp 6預(yù)測下一幀的位置前,先判斷這幀是否是最后一幀,如果是則結(jié)束,否則轉(zhuǎn)步驟Step2。

        本文目標(biāo)跟蹤算法流程如圖6所示。

        圖6 本文目標(biāo)跟蹤算法流程

        5 實(shí)驗(yàn)結(jié)果與分析

        本文實(shí)驗(yàn)平臺為CPU雙核2.6 GHz,內(nèi)存2 GB,軟件為Matlab R2009a,Windows XP操作系統(tǒng)。為了驗(yàn)證本文算法的有效性,實(shí)驗(yàn)中選取了多組具有代表性的視頻進(jìn)行處理,這些視頻中包含了目標(biāo)的遮擋,光照的劇烈變化,目標(biāo)的快速移動等較難處理的情況。本文采用 MIL跟蹤方法以及 OAB(Online AdaBoost)跟蹤方法作為對比實(shí)驗(yàn),并且分別通過主觀觀察和客觀評價(jià)方法驗(yàn)證本文算法的優(yōu)越性。

        本文所采用的實(shí)驗(yàn)對比方法采用相同的運(yùn)動模型,算法在跟蹤的初始化階段,需要手動定義目標(biāo)的訓(xùn)練樣本,初始時(shí)設(shè)置μ0=0,σ0=0。本文算法和OAB算法設(shè)置搜索半徑為30像素,在搜索半徑內(nèi)未發(fā)現(xiàn)目標(biāo)時(shí),下一幀將擴(kuò)大搜索半徑,擴(kuò)大率為ε=1.1。對于本文算法,對于本文算法每一幀的半徑r=5范圍內(nèi)視為正包中的示例,一般情況下正包中包含約60個(gè)的圖像子塊;對于負(fù)包示例的半徑設(shè)置為β=55,一般情況下負(fù)包中會生成約70個(gè)的圖像子塊。更新策略的參數(shù)本文設(shè)置為α=0.85。圖7為實(shí)驗(yàn)結(jié)果對比,其中,黑色直線為本文算法;白色點(diǎn)劃線為MIL算法;白色虛線為 OAB算法。圖7(a)為視頻 david inside的跟蹤效果,本文提供了#1,#14,#154,#277, #316和#460幀作為效果展示圖,從效果圖可以看出視頻跟蹤中遇到光線變化和自身變化等情況,本文算法較MIL和OAB都具有較好的跟蹤效果。圖7(b)為視頻sylverster的跟蹤效果,此視頻主要難點(diǎn)在于目標(biāo)的自身變化和光照變化,如#1,#389,#608,#866,#933, #1344圖中所示,本文算法在跟蹤效果方面比MIL算法和OAB算法好。圖7(c)從occluded face2中選取#1,#282,#411,#658,#732,#812的效果圖,本視頻存在的主要處理難點(diǎn)是人臉遮擋問題,該視頻中人臉的遮擋率大75%,,如#732,本文算法仍然有較好的跟蹤效果。圖7(d)從tiger2中選取#1,#53,#114,#205,#329, #362的效果圖,該視頻主要處理的是物體的快速移動以及經(jīng)常性遮擋,從圖中可以看出,當(dāng)目標(biāo)出現(xiàn)全遮擋本文算法依然可以跟蹤。

        上述的實(shí)驗(yàn)結(jié)果對比是從主觀上來評價(jià)本文算法的優(yōu)越性,下面從客觀角度來衡量本文算法性能。目前對于跟蹤算法主要采用中心像素誤差作為評價(jià)標(biāo)準(zhǔn),中心像素距離指的是目前跟蹤到的目標(biāo)中心位置與目標(biāo)實(shí)際中心位置的像素距離。圖8為每個(gè)視頻基于中心像素距離標(biāo)準(zhǔn)的跟蹤效果對比,其中對于每個(gè)視頻每隔5幀,提取該目標(biāo)的中心位置和實(shí)際中心位置的像素距離。

        但是這種方法并不能很好地分析跟蹤算法準(zhǔn)確性,如圖9所示,由圖9(a)可以看出,盡管它們的中心點(diǎn)重合,但是由于文章采用自適應(yīng)選取樣本,因此它在大小和形狀相差很大,如果單獨(dú)考慮中心像素誤差,會認(rèn)為跟蹤精確度達(dá)到100%,但事實(shí)情況并非如此。圖9(b)顯示目標(biāo)較大時(shí),盡管中心平均像素誤差較大,但還是有較多區(qū)域重合,而目標(biāo)較小時(shí),如圖9(c)所示,盡管中心平均像素誤差較小,但跟蹤結(jié)果已偏離目標(biāo)。因此,本文認(rèn)為跟蹤目標(biāo)的準(zhǔn)確度和目標(biāo)的中心位置有關(guān),還和目標(biāo)的大小有關(guān),為此本文采用一種更加嚴(yán)格的評價(jià)標(biāo)準(zhǔn),基于重合面積的精確度計(jì)算方法[16-17]。

        圖7 實(shí)驗(yàn)結(jié)果對比

        圖8 中心像素距離對比

        圖9 跟蹤結(jié)果現(xiàn)象分析

        如圖10所示,S1代表真實(shí)目標(biāo)區(qū)域面積,S2代表跟蹤到的目標(biāo)區(qū)域面積,S3為S1和S2面積的重合部分,則其精確度評價(jià)標(biāo)準(zhǔn)p為:

        圖10 重合面積表示

        基于此評價(jià)標(biāo)準(zhǔn),對圖8中的每個(gè)視頻的跟蹤效果進(jìn)行對比,結(jié)果如圖11所示。

        由圖8和圖11的實(shí)驗(yàn)結(jié)果可以看出,在視頻跟蹤的前期階段,MIL算法跟蹤效果較好,因?yàn)镸IL算法主要通過基于部分模型解決遮擋問題,但不能很好地解決目標(biāo)的自身變化。而OAB算法跟蹤整體效果不錯(cuò),但跟本文算法相比,由于訓(xùn)練樣本過多,導(dǎo)致跟蹤精度都不如本文算法。從上面的主觀和客觀的分析結(jié)果可以看出本文提出的方法能夠更加穩(wěn)健的跟蹤到目標(biāo),并且在背景復(fù)雜,光線變化,物體的快速移動,目標(biāo)遮擋等復(fù)雜條件下,都具有較高的準(zhǔn)確率。

        圖11 重合精確度對比

        6 結(jié)束語

        本文對多示例學(xué)習(xí)框架訓(xùn)練分類器的優(yōu)點(diǎn)與不足進(jìn)行分析,根據(jù)選取訓(xùn)練樣本的樣本分布特點(diǎn),提出了基于高斯核密度估計(jì)的示例選擇的目標(biāo)跟蹤方法,并針對負(fù)示例占據(jù)主導(dǎo)優(yōu)勢的情況,建立基于負(fù)示例分布的高斯核密度,對正包中的示例進(jìn)行篩選,得到最終的訓(xùn)練樣本數(shù)據(jù),然后更新訓(xùn)練AdaBoost分類器對目標(biāo)進(jìn)行跟蹤。實(shí)驗(yàn)結(jié)果表明,本文算法在處理遮擋、光照變化、快速移動以及自身變化的情況時(shí),具有較好的跟蹤效果。

        [1] Comaniciu D,Rameshand V,Meer P.Real-time Tracking of Non-rigid Objects Using Mean Shift[C]// Proceedings of CVPR’00.Hilton Head Island,USA: IEEE Press,2000:142-149.

        [2] Avidan S. Subset Selection for Efficient SVM Tracking[C]//Proceedings of CVPR’03.Madison, USA:IEEE Press,2003:85-92.

        [3] Adam A,Rivlin E,Shimshoni I.Robust MILments-based Tracking Using the Integral Histogram [C]// Proceedings of CVPR’06.New York,USA:IEEE Press, 2006:798-805.

        [4] Viola P,Jones M J.Real-time Face Detection[J]. International Journal of Computer Vision,2004,57(2): 137-154.

        [5] Grabner H,Grabner M,Bischof H.Real-time Tracking via Online Boosting[C]//Proceedings of BMVC’06. Edinburgh,UK:[s.n.],2006:47-56.

        [6] Li Mu,Kwok J T,Lu Baoliang.Online Multiple Instance Learning with No Regret[C]//Proceedings of CVPR’10.San Francisco,USA:IEEE Press,2010: 1395-1401.

        [7] Viola P,PlattJC,Zhang Cha.Multiple Instance Boosting for Object Detection[C]//Proceedings of NIPS’05.Whistler,Canada:[s.n.],2005:1417-1426.

        [8] Dietterich T G,Lathrop R H,Lozano-Pérez T.Solving the Multiple-instance Problem with Axis-parallel Rectangles[J].Artificial Intelligence,1997,89(1/2):31-71.

        [9] Babenko B,Yang M H,Belongie S.Visual Tracking with Online Multiple Instance Learning[C]// Proceedings of CVPR’09.Miami,USA:IEEE Press, 2009:983-990.

        [10] Babenko B,Yang M H,Belongie S.Robust Object Tracking with Online Mutltiple Instance Learning[C]// Proceedings of PAMI’11.Miami,USA:IEEE Press, 2011:983-990.

        [11] Maron O,Lozano-Perez T.A Framework for Multiple Instance Learning[C]//Proceedings of NIPS’98. [S.l.]:MIT Press,1998:570-576.

        [12] 鄧劍勛,熊忠陽.多示例圖像檢索算法研究及在人臉識別中的應(yīng)用[D].重慶:重慶大學(xué),2012.

        [13] Zho Zhihua,Xu Junming.On the Relation Between Multi-instanceLearning and Semi-supervised Learning[C]//Proceedings of ICML’07.New York,USA: [s.n.],2007:1167-1174.

        [14] Fu Zhouyu,Robles-Kelly A,Zhou Jun.MILIS:Multiple Instance Learning with Instance Selection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(5):958-977.

        [15] Suha K,Nam W,Han B.Learning Occlusion with Likehoods for Visual Tracking[C]//Proceedings of ICCV’11.Barcelona,Spain:[s.n.],2011:1551-1558.

        [16] 戴經(jīng)成,汪榮貴,游生福,等.在線多示例學(xué)習(xí)目標(biāo)跟蹤方法研究[J].計(jì)算機(jī)工程與應(yīng)用,2012,48(15): 129-135.

        [17] 戴經(jīng)成,汪榮貴.基于多示例學(xué)習(xí)的圖像分析方法研究[D].合肥:合肥工業(yè)大學(xué),2013.

        編輯 金胡考

        Improved Object Tracking Algorithm Based on Instance Selection

        LI Xiang,WANG Ronggui,YANG Juan,JIANG Shouhuan,LIANG Qixiang
        (School of Computer and Information,Hefei University of Technology,Hefei 230009,China)

        Multiple Instance Learning(MIL)is a new learning paradigm that deals with the problem of bags classification.The object tracking algorithm based on MIL is often interfered by useless or harmful instances when adaptively choose positive bags,and can not extract good discriminative feature,and this will affect the robustness of tracking algorithm.Therefore,this paper proposes an instance selection method based on kernel density estimation to improve the efficiency of MIL algorithm,which eliminates useless or harmful instances in training set,and then on this basis it provides a robust object tracking algorithm based on instance selection.Firstly,the algorithm builds up kernel density estimation function,uses it to optimize instances of positive bag for the majority of them are negative instances, and then uses the optimized training data to training-and-learning,and finally achieves real-time object tracking. Experimental results demonstrate that when the object suffers from the illumination changes,object partial occlusions, appearance changes and some other situations,the proposed object tracking algorithm is more robust.

        Multiple Instance Learning(MIL);harmful instance;kernel density estimation;instance selection; robustness;object tracking

        1000-3428(2015)01-0150-08

        A

        TP181

        10.3969/j.issn.1000-3428.2015.01.028

        國家自然科學(xué)基金資助項(xiàng)目“霧天視頻中目標(biāo)跟蹤的視覺計(jì)算模型與方法研究”(61075032);安徽省自然科學(xué)基金資助項(xiàng)目(1408085AF117)。

        李 想(1990-),女,碩士,主研方向:計(jì)算機(jī)視覺;汪榮貴(通訊作者),教授、博士;楊 娟,講師、博士;蔣守歡、梁啟香,碩士研究生。

        2014-02-18

        2014-03-21 E-mail:wangrgui@hfut.edu.cn

        中文引用格式:李 想,汪榮貴,楊 娟,等.基于示例選擇的目標(biāo)跟蹤改進(jìn)算法[J].計(jì)算機(jī)工程,2015,41(1):150-157.

        英文引用格式:Li Xiang,Wang Ronggui,Yang Juan,et al.Improved Object Tracking Algorithm Based on Instance Selection[J].Computer Engineering,2015,41(1):150-157.

        午夜男女视频一区二区三区| 水蜜桃无码视频在线观看| 国产又爽又黄的激情精品视频| 无遮高潮国产免费观看韩国| 亚洲天码一区二区三区| 精品卡一卡二卡3卡高清乱码| 国产日韩精品中文字无码| 浪荡少妇一区二区三区| 日本一区二区三区免费| 亚洲国产av无码精品无广告| 国产精品无码av天天爽| 99热门精品一区二区三区无码| 亚洲色图少妇熟女偷拍自拍| 最新露脸自拍视频在线观看| 国产女人高潮视频在线观看| 中文字幕无码人妻丝袜| 亚洲综合av一区在线| 国产女人精品视频国产灰线| 熟妇人妻无乱码中文字幕| 永久免费看免费无码视频| 亚洲中文字幕一区av| 无套内谢老熟女| 国产手机在线αⅴ片无码观看 | 极品人妻少妇一区二区| 青青青免费在线视频亚洲视频| 国产精品∧v在线观看| 成人影院视频在线免费观看| 国产aⅴ无码专区亚洲av麻豆| 99热成人精品热久久66| 色综久久综合桃花网国产精品| 国产自拍精品一区在线观看| 国产97在线 | 免费| 国产精品福利久久香蕉中文| 久草中文在线这里只有精品| 妇女bbbb插插插视频| 午夜婷婷国产麻豆精品| 国产精品久久婷婷六月| 精品国产天堂综合一区在线 | 9久久婷婷国产综合精品性色| 成人欧美一区二区三区1314| 久热香蕉av在线爽青青|