亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種紅外和可見光雙通道視頻目標(biāo)跟蹤方法

        2012-09-19 11:30:14趙高鵬薄煜明尹明鋒
        電子與信息學(xué)報 2012年3期
        關(guān)鍵詞:輪廓均值尺度

        趙高鵬 薄煜明 尹明鋒

        (南京理工大學(xué)自動化學(xué)院 南京 210094)

        1 引言

        視頻目標(biāo)跟蹤的任務(wù)是在連續(xù)兩幀中找到同一目標(biāo)在空間位置的對應(yīng)關(guān)系,在智能視頻監(jiān)控、軍事偵察、目標(biāo)識別等領(lǐng)域有著廣泛的應(yīng)用。在室外復(fù)雜環(huán)境下,受光照變化、陰影、地面背景物體干擾、圖像噪聲等多種因素的影響,單一視頻傳感器由于成像原理的限制,難以有效處理場景環(huán)境變化影響,許多研究人員利用紅外和可見光雙傳感器提高系統(tǒng)的目標(biāo)檢測跟蹤性能[1-6]。

        均值漂移(Mean Shift,MS)跟蹤算法[7]將跟蹤問題當(dāng)作最優(yōu)化問題來處理,采用核函數(shù)直方圖進(jìn)行建模和匹配,通過MS算法迭代實現(xiàn),具有特征穩(wěn)定、實時性好、魯棒性強(qiáng)等優(yōu)勢,自從其提出后就成為視頻跟蹤領(lǐng)域的重要方法。然而該算法也存在不足之處,例如,目標(biāo)尺度估計困難[8,9],尺度定位的準(zhǔn)確性一定程度上會影響空間定位的準(zhǔn)確性;大多改進(jìn)算法單一的圖像特征,在目標(biāo)外觀變化較大或非目標(biāo)干擾時,容易導(dǎo)致跟蹤失敗,采用多個特征能夠改善跟蹤性能,但多特征跟蹤算法[10,11]存在特征加權(quán)權(quán)值計算困難、計算量大的缺點。視頻多目標(biāo)跟蹤中遮擋問題是視頻跟蹤的難點之一,本文討論多目標(biāo)之間的相互遮擋問題,其關(guān)鍵在于如何判斷多目標(biāo)合并和分離,以及遮擋時如何定位目標(biāo)。

        在已有研究的基礎(chǔ)上,本文利用紅外和可見光雙通道視頻進(jìn)行目標(biāo)跟蹤,利用目標(biāo)的顏色特征和輪廓特征,通過將均值漂移算法與水平集曲線演化算法有效結(jié)合,實現(xiàn)了室外復(fù)雜場景下的視頻目標(biāo)穩(wěn)定跟蹤。采用實際場景下的視頻實驗表明了本文方法的有效性。

        2 目標(biāo)跟蹤方法

        本文目標(biāo)跟蹤方法使用顏色特征和輪廓特征,總體框架如圖1所示,包括5個部分:(1)基于顏色特征的均值漂移迭代定位;(2)基于水平集的目標(biāo)輪廓提?。?3)目標(biāo)合并與分離判斷;(4)遮擋處理;(5)目標(biāo)尺度和模型更新。

        單目標(biāo)跟蹤時,算法不進(jìn)行第(3)和第(4)部分的處理;多目標(biāo)跟蹤時,則每一幀都執(zhí)行第(3)部分判斷,如果發(fā)生目標(biāo)合并(遮擋),則執(zhí)行第(4)部分處理,否則,算法相當(dāng)于進(jìn)行多個單目標(biāo)跟蹤。

        2.1 均值漂移定位分析

        均值漂移算法采用核函數(shù)加權(quán)的特征直方圖描述目標(biāo),在每幀中對目標(biāo)模板模型和候選目標(biāo)模型進(jìn)行相似性度量,并沿著核直方圖相似性的梯度方向迭代搜索目標(biāo)位置。

        式中m表示特征直方圖的量化級數(shù);qu,pu分別表示目標(biāo)模板和候選目標(biāo)核直方圖各級概率密度;C,Ch為歸一化系數(shù),使得n,nh分別表示目標(biāo)模板和候選目標(biāo)的像素個數(shù);k為核函數(shù),一般取為Epanechnikov核函數(shù);δ為Kronecker delta函數(shù);b為像素在直方圖中的索引值;為目標(biāo)模板區(qū)域像素的歸一化位置,xi為候選目標(biāo)像素當(dāng)前幀的位置,h為目標(biāo)尺度,即為核窗寬,通常取目標(biāo)跟蹤窗寬的一半。

        在獲得目標(biāo)模板和候選目標(biāo)的核直方圖模型后,MS采用Bhattacharyya系數(shù)度量兩個模型之間的相似性,即計算兩個離散概率分布q和p(y)之間的相似性,如式(3):

        目標(biāo)定位就是在當(dāng)前幀中,根據(jù)目標(biāo)的初始位置y0尋找使相似性系數(shù)ρ取最大的位置y1。將ρ(y)在y0處泰勒展開,求其最大值,可得位置y1的計算如式(4):

        通過反復(fù)迭代式(4),使候選目標(biāo)不斷沿著相似性度量的梯度方向移動到新的位置y1,直到相似性系數(shù)ρ達(dá)到最大,從而得到目標(biāo)最優(yōu)位置y1。

        由于顏色特征對平移、尺度變化和部分遮擋具有較好的魯棒性,為了對光照變化不敏感,本文方法將可見光圖像轉(zhuǎn)化到HSV顏色空間,計算目標(biāo)的HSV顏色特征直方圖,直方圖量化級數(shù)為16×4×4,然后進(jìn)行均值漂移迭代定位,根據(jù)目標(biāo)的初始位置y0計算可得到當(dāng)前幀的目標(biāo)最優(yōu)位置y1。

        2.2 基于水平集的輪廓提取

        在均值漂移迭代定位的基礎(chǔ)上,本文方法進(jìn)一步提取目標(biāo)輪廓,估計出目標(biāo)尺度和精確位置。由于紅外圖像不受光照和陰影變化的影響,因此在紅外圖像中提取目標(biāo)輪廓?;谒郊妮喞崛》椒╗12,13]的基本思想是將輪廓隱含地表達(dá)為2維曲面函數(shù)φ的零水平集,通過建立關(guān)于輪廓的能量函數(shù),采用變分方法最小化該能量函數(shù),最終得到輪廓的進(jìn)化方程。文獻(xiàn)[13]提出了一種新的水平集曲線演化方法,優(yōu)點在于對輪廓的初始化位置不敏感,不需要重新初始化,計算速度快,定位精度高。

        能量函數(shù)定義為

        式中Ω為圖像定義域;右側(cè)第1項為規(guī)則化距離項,第2項表示零水平集曲線的長度,第3項表示零水平集曲線內(nèi)部區(qū)域的面積,μ,λ,α為各項的加權(quán)系數(shù);p為距離規(guī)則化函數(shù);δ為Dirac delta函數(shù);H為Heaviside函數(shù);為邊緣指示函數(shù)。

        通過變分法,從而推出水平集函數(shù)演化方程為

        圖1 本文視頻目標(biāo)跟蹤方法框圖

        本文基于水平集的輪廓提取采用式(6)給出的模型,通過給定輪廓初始位置φ0,進(jìn)行曲線演化,從而得到目標(biāo)的最終輪廓,根據(jù)目標(biāo)輪廓可計算得到目標(biāo)位置、寬和高,即目標(biāo)尺度。

        2.3 本文跟蹤方法

        如圖1所述,跟蹤單個目標(biāo)時,本文方法包括第(1),第(2),第(3)3個部分,第(1),第(2)部分分別如2.1節(jié)和2.2節(jié)所述。為了保持長時間跟蹤的穩(wěn)定性,必須對目標(biāo)尺度和模型進(jìn)行更新,以適應(yīng)目標(biāo)自身變化和背景環(huán)境的變化。本文尺度更新方法利用水平集輪廓提取的結(jié)果來估計目標(biāo)尺度,如式(7),尺度更新結(jié)果用于下一幀的均值漂移定位。

        式中h表示可見光當(dāng)前幀用于均值漂移定位的目標(biāo)尺度;hcontour表示紅外當(dāng)前幀根據(jù)水平集輪廓提取結(jié)果得到的目標(biāo)尺度;hnew表示尺度更新結(jié)果,用于下一幀跟蹤;α為尺度更新速度因子,表示輪廓提取結(jié)果權(quán)重,其取值范圍為α∈[0,1]。

        經(jīng)典均值漂移跟蹤算法是基于目標(biāo)模型基本不發(fā)生改變這一假設(shè)的,跟蹤過程中一直采用初始目標(biāo)模型;大多數(shù)改進(jìn)方法都采用整體模型更新策略,即用當(dāng)前幀跟蹤結(jié)果和目標(biāo)模型進(jìn)行加權(quán)折中,從而獲取下一幀的目標(biāo)模型。當(dāng)目標(biāo)跟蹤結(jié)果定位不準(zhǔn)確時,這種更新方法容易使目標(biāo)模型偏離真實目標(biāo),導(dǎo)致跟蹤進(jìn)一步惡化。文獻(xiàn)[14]提出了一種選擇性子模型更新策略,通過計算目標(biāo)模型每個分量的匹配貢獻(xiàn)度MCDu,根據(jù)MCDu值的大小對目標(biāo)模型進(jìn)行有選擇的更新,如式(8),式(9)。

        本文目標(biāo)模型更新方法為:在得到可見光圖像均值漂移迭代定位,不采用當(dāng)前幀該位置處的目標(biāo)模型進(jìn)行更新,而是在紅外圖像中進(jìn)行輪廓提取后,根據(jù)輪廓定位結(jié)果和尺度更新結(jié)果,在可見光圖像中計算該定位位置處的目標(biāo)模型,表示為p,采用式(8),式(9)進(jìn)行選擇性目標(biāo)模型更新。

        根據(jù)前文所述,本文方法單目標(biāo)跟蹤步驟可以概括為

        步驟1 目標(biāo)初始化,給定初始目標(biāo)位置y0和尺度h,根據(jù)式(1)在可見光圖像計算目標(biāo)模板模型q。

        步驟2 設(shè)當(dāng)前幀為第t幀,按式(2)-式(4)進(jìn)行均值漂移迭代,得到可見光圖像第t幀的目標(biāo)最優(yōu)位置y1。

        步驟3 在紅外圖像第t幀中,根據(jù)y1和尺度h計算輪廓初始位置φ0,按式(5),式(6)輪廓模型進(jìn)行水平集曲線演化,提取得到目標(biāo)輪廓φ;根據(jù)輪廓φ計算目標(biāo)精確位置y2和尺度hcontour。

        步驟4 根據(jù)式(7)更新目標(biāo)尺度,得到尺度更新結(jié)果hnew;在可見光圖像第t幀位置y2處,計算目標(biāo)模型p,按式(8),式(9)更新目標(biāo)模板模型q。

        步驟5 更新目標(biāo)位置和尺度參數(shù),令y0=y2,h=hnew。

        步驟6 令t=t+1,返回步驟2進(jìn)行下一幀跟蹤。

        如圖1所述,跟蹤多個目標(biāo)時,本文方法每一幀都執(zhí)行第(3)部分目標(biāo)合并與分離判斷,如果發(fā)生目標(biāo)合并(遮擋),則執(zhí)行第(4)部分處理,否則,算法相當(dāng)于進(jìn)行多個單目標(biāo)跟蹤。多個目標(biāo)運動過程中相互遮擋過程可以描述為:多目標(biāo)接近,多目標(biāo)合并,合并目標(biāo)運動,多目標(biāo)分離。

        本文方法根據(jù)目標(biāo)間距離和目標(biāo)尺度來判斷多目標(biāo)是否發(fā)生目標(biāo)合并,根據(jù)水平集輪廓提取的結(jié)果判斷多目標(biāo)是否分離,以兩個運動目標(biāo)相互遮擋為例進(jìn)行說明,假定在遮擋過程中被遮擋目標(biāo)的顏色特征保持不變。

        令y1,k表示第k個目標(biāo)在進(jìn)行均值漂移迭代定位后得到的位置,hk表示第k個目標(biāo)當(dāng)前幀的尺度,k取值為1或2。根據(jù)式(10)在行和列兩個方向進(jìn)行判斷,若兩個方向上式(10)同時成立,則認(rèn)為發(fā)生目標(biāo)合并(遮擋)。

        此時,根據(jù)顏色特征的匹配程度將兩個目標(biāo)分為前景目標(biāo)和被遮擋目標(biāo),根據(jù)式(3)計算顏色特征相似度系數(shù)表示匹配程度,取相似度系數(shù)值較大者為前景目標(biāo),相似度系數(shù)值較小者為被遮擋目標(biāo),圖1中第(4)部分目標(biāo)遮擋處理對這兩類目標(biāo)分別進(jìn)行處理。

        對于前景目標(biāo),當(dāng)前幀均值漂移迭代定位結(jié)果認(rèn)為是目標(biāo)最優(yōu)位置,用于下一幀目標(biāo)跟蹤的起始位置;由于發(fā)生目標(biāo)合并,根據(jù)兩個目標(biāo)均值漂移迭代定位的位置初始化輪廓初始位置φ0,進(jìn)行水平集曲線演化可得到合并目標(biāo)的輪廓和位置,因此,對于被遮擋目標(biāo),根據(jù)輪廓提取結(jié)果和前景目標(biāo)位置估計出被遮擋目標(biāo)位置,如式(11);假定在目標(biāo)遮擋過程中,兩個目標(biāo)尺度不發(fā)生改變,不更新目標(biāo)尺度參數(shù)。

        式中y2表示輪廓提取得到的合并目標(biāo)位置;y1,1表示前景目標(biāo)位置,y1,2表示被遮擋目標(biāo)位置。

        由于水平集曲線模型能夠收斂到任意輪廓拓?fù)浣Y(jié)構(gòu),當(dāng)目標(biāo)合并時,輪廓提取結(jié)果數(shù)量為1,當(dāng)目標(biāo)分裂時,輪廓曲線演化結(jié)果收斂于兩個獨立目標(biāo),因此,可根據(jù)水平集輪廓提取結(jié)果判斷目標(biāo)是否分離。多目標(biāo)分離后,根據(jù)顏色特征計算相似度系數(shù)完成目標(biāo)關(guān)聯(lián),此后,算法對兩個目標(biāo)跟蹤相當(dāng)于進(jìn)行兩個單目標(biāo)跟蹤。

        根據(jù)前文所述,本文方法多目標(biāo)跟蹤步驟可以概括為:

        步驟1 多個目標(biāo)初始化,給定初始目標(biāo)位置y0,k和尺度hk,根據(jù)式(1)在可見光圖像分別計算每個目標(biāo)的目標(biāo)模板模型q。

        步驟2 設(shè)當(dāng)前幀為第t幀,對每個目標(biāo)按式(2)-式(4)進(jìn)行均值漂移迭代,得到可見光圖像第t幀每個目標(biāo)最優(yōu)位置y1,k。

        步驟3 按式(10)進(jìn)行目標(biāo)合并判斷,如果發(fā)生目標(biāo)合并,執(zhí)行步驟4,步驟5;否則,跳轉(zhuǎn)到步驟6繼續(xù)執(zhí)行。

        步驟4 按式(3)計算顏色特征匹配程度,區(qū)分前景目標(biāo)和被遮擋目標(biāo);在紅外圖像第t幀中按式(5),式(6)輪廓模型進(jìn)行水平集曲線演化,根據(jù)輪廓提取結(jié)果φ計算合并目標(biāo)位置y2;按式(11)計算被遮擋目標(biāo)位置。

        步驟5 根據(jù)輪廓提取結(jié)果φ判斷目標(biāo)是否分離,如果目標(biāo)合并沒有分離,更新目標(biāo)位置參數(shù),令y0,k=y1,k,跳轉(zhuǎn)到步驟9;如果目標(biāo)分離,根據(jù)輪廓φk計算每個目標(biāo)的精確位置y2,k和尺度hcontour,k,根據(jù)顏色特征計算相似度系數(shù)完成目標(biāo)關(guān)聯(lián),跳轉(zhuǎn)到步驟7。

        步驟6 在紅外圖像第t幀中,對每個目標(biāo)根據(jù)y1,k和尺度hk計算輪廓初始位置φ0,k,按式(5),式(6)輪廓模型進(jìn)行水平集曲線演化,提取得到目標(biāo)輪廓φk;根據(jù)輪廓φk計算目標(biāo)精確位置y2,k和尺度hcontour,k。

        步驟7 根據(jù)式(7)更新目標(biāo)尺度,得到尺度更新結(jié)果hnew,k;在可見光圖像第t幀位置y2,k處,計算目標(biāo)模型pk,按式(8),式(9)更新每個目標(biāo)的目標(biāo)模板模型q。

        步驟8 更新每個目標(biāo)的位置和尺度參數(shù),令y0,k=y2,k,hk=hnew,k。

        步驟9 令t=t+1,返回步驟2進(jìn)行下一幀跟蹤。

        3 實驗結(jié)果與分析

        為了驗證本文方法的有效性,本文在 Matlab 2009環(huán)境下進(jìn)行了仿真。硬件采用 Intel Core 2 CPU 2.9 GHz處理器,內(nèi)存 2 G。測試視頻采用OTCBVS數(shù)據(jù)庫中的可見光和紅外視頻。具體參數(shù)為:紅外傳感器為Raytheon PalmIR 250D,可見光傳感器為Sony TRV87 Handycam;紅外視頻為8位灰度表示,大小為 320像素×240像素;可見光視頻為24位彩色表示,大小為320像素×240像素。

        實驗1 對單個目標(biāo)進(jìn)行跟蹤,視頻特點為跟蹤過程中存在光照變化,陰影。實驗中對比了文獻(xiàn)[14]方法,該方法采用可見光視頻,目標(biāo)特征采用HSV顏色特征,目標(biāo)尺度采用±10%縮放。圖2給出了跟蹤結(jié)果的部分視頻幀,本文方法在可見光和紅外視頻幀用外接矩形框同時標(biāo)記目標(biāo)跟蹤結(jié)果,并在紅外視頻幀中用閉合曲線標(biāo)出了輪廓提取結(jié)果。

        由圖2可見:跟蹤初始時兩種方法都能正確跟蹤目標(biāo);當(dāng)發(fā)生光照變化時,由于HSV顏色特征對光照有一定的魯棒性,兩種方法仍能跟蹤到目標(biāo);隨著跟蹤進(jìn)行,目標(biāo)進(jìn)入陰影區(qū)域,文獻(xiàn)[14]方法發(fā)生較大偏差,跟蹤丟失(170幀),而本文方法始終能夠穩(wěn)定地跟蹤目標(biāo)。

        圖3給出了兩種方法跟蹤結(jié)果目標(biāo)中心點坐標(biāo)與目標(biāo)真實中心點坐標(biāo)的距離誤差,真實值采用手工逐幀標(biāo)定。由圖3可見:在整個跟蹤過程中,本文方法的距離誤差相對較小,行和列的坐標(biāo)距離誤差最大不超過5個像素。此外,本文方法對該視頻的平均處理速度達(dá)到10幀/s。

        實驗2 對多個目標(biāo)進(jìn)行跟蹤。視頻特點為跟蹤過程中發(fā)生兩個目標(biāo)相互遮擋。圖4給出了本文方法跟蹤結(jié)果的部分視頻幀,在可見光和紅外視頻幀用外接矩形框同時標(biāo)記目標(biāo)定位結(jié)果,并在紅外視頻幀中用閉合曲線標(biāo)出了輪廓提取結(jié)果。圖5給出了目標(biāo)跟蹤結(jié)果與目標(biāo)真實位置兩點間的距離誤差曲線圖,真實值采用手工逐幀標(biāo)定。

        圖4視頻中兩個目標(biāo)在運動過程中發(fā)生相互遮擋,在發(fā)生遮擋前(15幀)和兩個目標(biāo)分離后(72幀),本文方法相當(dāng)于對兩個目標(biāo)分別進(jìn)行單目標(biāo)跟蹤,在遮擋過程中(50幀,57幀),本文方法綜合利用顏色和輪廓特征能夠準(zhǔn)確定位目標(biāo),由于在發(fā)生遮擋時將合并目標(biāo)作為整體進(jìn)行輪廓提取,因而對目標(biāo)的遮擋程度不敏感(57幀)。由圖5可見,在第45幀~第70幀中,目標(biāo)發(fā)生互相遮擋導(dǎo)致某些幀的跟蹤誤差相對較大,但仍能夠跟蹤到目標(biāo)。

        圖2 跟蹤結(jié)果部分視頻幀(1~3行分別為文獻(xiàn)[14]方法,本文方法可見光視頻幀,本文方法紅外視頻幀;1~4列分別為第40,100,170,198幀)

        圖3 跟蹤結(jié)果中心點位置誤差曲線比較

        圖4 跟蹤結(jié)果部分視頻幀(1~2行分別為本文方法可見光視頻幀,本文方法紅外視頻幀;1~4列分別為第15,50,57,72幀)

        實驗1中本文方法利用紅外和可見光圖像的互補(bǔ)特性能夠有效處理復(fù)雜場景下光照、陰影等變化,提高跟蹤的穩(wěn)定性;實驗2中本文方法對兩個目標(biāo)跟蹤中的互遮擋現(xiàn)象能夠有效處理,準(zhǔn)確定位目標(biāo)。

        圖5 跟蹤結(jié)果距離誤差曲線

        4 結(jié)束語

        本文提出了一種紅外和可見光圖像目標(biāo)跟蹤方法,利用雙感器的互補(bǔ)性,提高室外場景下目標(biāo)跟蹤的穩(wěn)定性。采用可見光圖像顏色和紅外圖像輪廓特征,將均值漂移算法與水平集曲線演化結(jié)合實現(xiàn)目標(biāo)定位,克服了光照和陰影的影響;通過判斷目標(biāo)合并與分離,解決了多目標(biāo)互相遮擋時的定位問題。采用紅外和可見光雙傳感器視頻進(jìn)行實驗,結(jié)果表明本文方法的有效性。需要說明的是,本文方法要求紅外和可見光圖像序列在跟蹤處理前已經(jīng)過圖像配準(zhǔn),配準(zhǔn)屬于另一個研究方向,在此不做討論,本文選用的測試視頻已經(jīng)過配準(zhǔn)。在進(jìn)一步研究中,考慮引入目標(biāo)運動狀態(tài),對發(fā)生遮擋的目標(biāo)數(shù)量大于2的情況,以及目標(biāo)發(fā)生不規(guī)則運動和目標(biāo)與背景物體發(fā)生遮擋等情況進(jìn)行研究。

        [1]Bondzulic B and Petrovic V.Multisensor background extraction and updating for moving target detection[C].Proceedings of 2008 11th International Conference on Information Fusion,Cologne,Germany,2008:1-8.

        [2]Han J and Bhanu B.Fusion of color and infrared video for moving human detection[J].Pattern Recognition,2007,40(6):1771-1784.

        [3]Davis J W and Sharma V.Background-subtraction using contour-based fusion of thermal and visible imagery[J].Computer Vision and Image Understanding,2007,106(2,3):162-182.

        [4]Leykin A and Ran Y.Thermal-visible video fusion for moving target tracking and pedestrian classification[C].Object Tracking and Classification in and Beyond the Visible Spectrum Workshop at the International Conference on Computer Vision and Pattern Recognition,Minneapolis,USA,2007:1-8.

        [5]Conaire C and Connor N.Thermo-visual feature fusion for object tracking using multiple spatiogram trackers[J].Machine Vision and Applications,2008,19(5,6):483-494.

        [6]程詠梅,王進(jìn)行,魏坤,等.基于加權(quán)mean-shift可見光/紅外雙通道目標(biāo)跟蹤[J].光子學(xué)報,2010,39(2):357-363.Cheng Yong-mei,Wang Jin-xing,Wei Kun,et al..Visible/infrared dual-channel target tracking based on weighted mean-shift[J].Acta Photonica Sinica,2010,39(2):357-363.

        [7]Comaniciu D,Ramesh V,and Meer P.Kernel-based object tracking[J].IEEE Transactions on Patten Analysis and Machine Intelligence,2003,25(5):564-575.

        [8]左軍毅,梁彥,趙春暉,等.Mean Shift跟蹤算法中尺度自適應(yīng)策略的研究[J].中國圖象圖形學(xué)報,2008,13(9):1750-1757.Zuo Jun-yi,Liang Yan,Zhao Chun-hui,et al..Researches on scale adaptation strategy in mean shift tracking algorithm[J].Journal of Image and Graphics,2008,13(9):1750-1757.

        [9]錢惠敏,茅耀斌,王執(zhí)銓.自動選擇跟蹤窗尺度的Mean-Shift算法[J].中國圖象圖形學(xué)報,2007,12(2):245-249.Qian Hui-min,Mao Yao-bin,and Wang Zhi-quan.Mean shift tracking with self-updating tracking window[J].Journal of Image and Graphics,2007,12(2):245-249.

        [10]李遠(yuǎn)征,盧朝陽,高全學(xué),等.基于多特征融合的均值遷移粒子濾波跟蹤算法[J].電子與信息學(xué)報,2010,32(2):411-415.Li Yuan-zheng,Lu Zhao-yang,Gao Quan-xue,et al..Particle filter and mean shift tracking method based on multi-feature fusion[J].Journal of Electronics&Information Technology,2010,32(2):411-415.

        [11]Han Z J,Ye Q X,and Jiao J B.Combined feature evaluation for adaptive visual object tracking[J].Computer Vision and Image Understanding,2011,115(1):69-80.

        [12]Osher S and Shthian J.Fronts propagating with curvaturedependent speed:algorithms based on Hamilton-Jacobi formulations[J].Journal of Computer and Physics,1988,79(1):12-49.

        [13]Li C M and Xu C Y.Distance regularized level set evolution and its application to image segmentation[J].IEEE Transactions on Image Processing,2010,19(12):3243-3254.

        [14]沈志熙,楊欣,黃席樾.均值漂移算法中的目標(biāo)模型更新方法研究[J].自動化學(xué)報,2009,35(5):478-483.Shen Zhi-xi,Yang Xin,and Huang Xi-yue.Study on target model update method in mean shift algorithm[J].Acta Automatica Sinica,2009,35(5):478-483.

        猜你喜歡
        輪廓均值尺度
        OPENCV輪廓識別研究與實踐
        財產(chǎn)的五大尺度和五重應(yīng)對
        基于實時輪廓誤差估算的數(shù)控系統(tǒng)輪廓控制
        宇宙的尺度
        太空探索(2016年5期)2016-07-12 15:17:55
        均值不等式失效時的解決方法
        均值與方差在生活中的應(yīng)用
        在線學(xué)習(xí)機(jī)制下的Snake輪廓跟蹤
        關(guān)于均值有界變差函數(shù)的重要不等式
        對偶均值積分的Marcus-Lopes不等式
        9
        久久国产成人精品av| 亚洲av福利天堂在线观看| 中文字幕一区二区三区精品在线 | 亚洲自拍偷拍一区二区三区| 手机看黄av免费网址| 日韩a毛片免费观看| 亚洲av午夜成人片精品| 美女被黑人巨大入侵的的视频| 亚洲一区二区三区尿失禁| 国产真人无码作爱视频免费| 日本香蕉久久一区二区视频| 隔壁人妻欲求不满中文字幕| 国产乱子伦精品无码专区 | 中文天堂一区二区三区| 国产一区二区视频免费在线观看| 无码少妇精品一区二区免费动态| 精品免费福利视频| 亚洲国产精品成人一区| 国产自拍视频在线观看网站| 野狼第一精品社区| 国产乱色国产精品免费视频| 日本一二三区在线视频观看| 大尺度无遮挡激烈床震网站| 一本大道久久东京热无码av| 精品久久亚洲一级α| 亚洲成人激情深爱影院在线| 国产精品a免费一区久久电影| 日本丶国产丶欧美色综合| 亚洲视频一区二区久久久| 丰满少妇按摩被扣逼高潮| 少妇无码太爽了不卡视频在线看| 色www亚洲| 亚洲成人av一区二区 | 成人国产激情自拍视频 | 亚洲性无码av在线| 国产白浆精品一区二区三区| 国产亚洲精品熟女国产成人| 国产精品人妻一码二码尿失禁 | 日本免费看片一区二区三区| 亚洲熟妇少妇任你躁在线观看无码 | 特黄 做受又硬又粗又大视频|