亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于顏色-紋理特征的目標(biāo)跟蹤*

        2014-09-13 12:35:14姚原青周書仁
        計算機工程與科學(xué) 2014年8期
        關(guān)鍵詞:跟蹤目標(biāo)紋理光照

        姚原青,李 峰,周書仁

        (長沙理工大學(xué)計算機與通信工程學(xué)院,湖南 長沙 410004)

        基于顏色-紋理特征的目標(biāo)跟蹤*

        姚原青,李 峰,周書仁

        (長沙理工大學(xué)計算機與通信工程學(xué)院,湖南 長沙 410004)

        針對傳統(tǒng)的基于顏色特征目標(biāo)跟蹤算法在一些復(fù)雜場景中存在的跟蹤不穩(wěn)定性,提出一種基于顏色-紋理特征的目標(biāo)跟蹤算法;在傳統(tǒng)的基于顏色Mean-shift的目標(biāo)跟蹤算法中加入紋理特征,在提取目標(biāo)顏色特征的同時提取目標(biāo)的紋理特征,并且采取串接原則,在搜索目標(biāo)新位置時仍然沿用傳統(tǒng)的基于顏色的均值漂移跟蹤算法,但在每一次迭代過程搜尋目標(biāo)最佳的位置點即特征相似最大的區(qū)域時,利用紋理特征來實現(xiàn),并且采用八鄰域搜索法(候選區(qū)域周圍擴大八個大小相等的區(qū)域)來解決部分遮擋的問題。通過對比實驗表明,該算法在復(fù)雜場景中表現(xiàn)出的實時性和魯棒性較好。

        目標(biāo)跟蹤;顏色特征;均值漂移;紋理特征

        1 引言

        目標(biāo)自動識別與跟蹤技術(shù)是世界各國精確打擊武器制導(dǎo)系統(tǒng)的關(guān)鍵技術(shù),同時也是許多計算機視覺系統(tǒng)的關(guān)鍵底層技術(shù),如監(jiān)控、基于目標(biāo)的視頻壓縮、基于內(nèi)容的圖像搜索系統(tǒng)、醫(yī)療用圖像系統(tǒng)、機器人、計算機輔助駕駛系統(tǒng)等等[1]。

        均值漂移(Mean-shift)方法[2]是一種快速的、沿著梯度方向進行迭代的方法,因此能夠較快地找到核密度估計的峰值。它傾向于忽略離感興趣區(qū)域較遠的數(shù)據(jù)。均值漂移算法最初由Fukunaga K和Hostetle L D在1975年提出[3],當(dāng)時命名為“valley-seeking procedure”,其核心思想是利用核函數(shù)對窗口中的點進行加權(quán)平均,得到新的窗口位置,然后迭代進行加權(quán)平均直至收斂。

        文獻[4,5]定義了一系列核函數(shù)和權(quán)重系數(shù),指出Mean-shift的應(yīng)用領(lǐng)域。文獻[6]把跟蹤作為二值化分類問題來處理,通過在線方式訓(xùn)練弱分類器來區(qū)別對象特征和背景特征,強分類器用來計算下一幀的信任圖, 通過Mean-shift算法找到信任圖的峰值(對象的新位置)。通過不斷地訓(xùn)練弱分類器,更新強分類器,使得跟蹤器以較低的計算成本取得較好的健壯性。文獻[7]通過把基于顏色特征的跟蹤與紋理特征相結(jié)合,在人臉跟蹤中,對復(fù)雜場景有一定的魯棒性。文獻[2]針對傳統(tǒng)均值漂移算法的弱點,提出一種融合分級邊緣特征的核密度估計算法,使得在長時間的跟蹤以及場景變化的環(huán)境跟蹤準(zhǔn)確。

        傳統(tǒng)的基于核函數(shù)的目標(biāo)跟蹤方法是利用目標(biāo)空間核加權(quán)的顏色特征直方圖來描述目標(biāo)。但是,通過實驗表明,基于單個視覺特征的目標(biāo)描述很難對一些復(fù)雜場景足夠魯棒,所以可進行特征融合,基于多個視覺特征的目標(biāo)描述,利用各個特征的互補性,實現(xiàn)更為魯棒的目標(biāo)跟蹤。本文在文獻[7]的基礎(chǔ)上,提出一種基于顏色特征與紋理特征相結(jié)合的跟蹤算法,解決傳統(tǒng)跟蹤算法的局限性,對一些復(fù)雜場景,比如光照影響、旋轉(zhuǎn)及部分遮擋的影響,具有一定的魯棒性。與傳統(tǒng)方法的實驗結(jié)果比較表明,本文算法跟蹤準(zhǔn)確,實時性較好。

        2 傳統(tǒng)的Mean-shift目標(biāo)跟蹤算法

        傳統(tǒng)的目標(biāo)跟蹤算法的主要思想是:首先選取要跟蹤的對象目標(biāo),計算目標(biāo)的顏色特征密度分布函數(shù)以及候選目標(biāo)的顏色特征密度分布函數(shù);然后通過匹配的方法,搜索接下來幀中目標(biāo)的位置,達到對目標(biāo)的實時跟蹤。

        傳統(tǒng)的目標(biāo)跟蹤算法中的匹配方法是基于Bhattacharyya系數(shù)的特征密度匹配。目標(biāo)模型和候選目標(biāo)模型之間的距離定義為:

        (1)

        其中,p是基于顏色特征的目標(biāo)模板,q(y)是基于顏色特征的候選目標(biāo)特征函數(shù),S(y)是Bhattacharyya系數(shù),具有如下形式:

        (2)

        由式(2)可以看出,ρ[p,q(y)]的極小化等價于S(y)的極大化,其極大化可以通過式(3)的Mean-shift迭代過程完成:

        (3)

        其中,xi表示像素在目標(biāo)模板中的位置,yi表示像素在候選目標(biāo)中的位置,g是核函數(shù),g′是核函數(shù)的剖面函數(shù),h是核函數(shù)帶寬,wi表示權(quán)值。

        基于Mean-shift的目標(biāo)跟蹤過程主要基于上式的迭代計算。給定的目標(biāo)模型,迭代過程的初始值是目標(biāo)在前一幀的跟蹤位置,目標(biāo)在當(dāng)前幀的新位置使Bhattacharyya系數(shù)S(y)極小化[8,9]。

        傳統(tǒng)的目標(biāo)跟蹤算法有著良好的優(yōu)點,實時性好,對于遮擋、目標(biāo)形變有一定的魯棒性。但是,通常一些應(yīng)用背景相對比較復(fù)雜,比如背景顏色相似、光照強度影響目標(biāo)顏色以及遮擋問題,基于顏色特征的建模就不能很好地表示目標(biāo)特征,致使跟蹤算法的性能下降。本文在傳統(tǒng)的目標(biāo)跟蹤算法基礎(chǔ)上,提出一種適應(yīng)復(fù)雜背景的跟蹤算法。

        3 融合紋理特征的目標(biāo)跟蹤算法

        3.1 圖像紋理特征特性

        紋理特征(LBP)是基于3×3的像素框,反映了中心像素灰度值與相鄰像素灰度值的大小關(guān)系,LBP的計算過程為:

        (4)

        其中,gc表示中心像素灰度值,gi表示相鄰像素灰度值。

        對于傳統(tǒng)算法中顏色特征的不足,紋理特征體現(xiàn)出的優(yōu)勢主要為:

        (1)光照不變性。光照對圖像紋理特征影響比較小。所以,在跟蹤過程中,如果目標(biāo)受到光照影響時,此時顏色特征變化比較大,但是紋理特征變化不大。如圖1所示。

        Figure 1 LBP numerical before the light impact and after the light impact圖1 受光照影響前后的LBP特征值

        圖1所示為兩個區(qū)域LBP計算,由式(4)得到的LBP值是一模一樣的。這就是在光照的影響下,其LBP值不變的特點[10]。

        (2)旋轉(zhuǎn)不變性。圖像發(fā)生旋轉(zhuǎn)時,圓形鄰域的灰度值在以gc為中心、R為半徑的圓周上移動。只要LBP值不全為0或者不全為1,圖像的旋轉(zhuǎn)就會得到不同的LBP值,因此,Maenpaa T等人[11]又將LBP算法進行了擴展,提出了具有旋轉(zhuǎn)不變性的LBP(Rotation Invariant LBP)。即不斷旋轉(zhuǎn)圓形鄰域得到一系列初始定義的LBP值,取其最小值作為該鄰域的LBP值:

        LBP=min{ROR(LBP,i),i=0,…,p-1}

        (5)

        其中,ROR()表示通過向右移位取不同的LBP。

        所以,在跟蹤過程中,跟蹤目標(biāo)發(fā)生了旋轉(zhuǎn)導(dǎo)致顏色特征發(fā)生變化時,則可以保持特征函數(shù)不變,與目標(biāo)函數(shù)的匹配度增高,保持跟蹤的準(zhǔn)確性。

        3.2 基于顏色-紋理特征的目標(biāo)跟蹤

        文獻[7]通過將目標(biāo)顏色特征和紋理特征相結(jié)合,應(yīng)用于人臉跟蹤,與單一的特征跟蹤算法實驗相比較,跟蹤的準(zhǔn)確性得到了提高,并且能保持較好的實時性。本文考慮在傳統(tǒng)的基于顏色Mean-shift的目標(biāo)跟蹤算法加入紋理特征,利用紋理特征在光照影響下的不變性,適應(yīng)變化的場景。

        如果將目標(biāo)的顏色和紋理特征組合在一起表示成高維特征向量,在目標(biāo)的空間用其特征直方圖來描述目標(biāo),那么隨著特征空間的維數(shù)增加,運算復(fù)雜度會急劇增加,從而使得實時跟蹤變得不可能。本文采取串接原則,在搜索目標(biāo)新位置時仍然沿用傳統(tǒng)的基于顏色的均值漂移跟蹤算法,但在每一次迭代過程搜尋目標(biāo)最佳的位置點即特征相似最大的區(qū)域時,運用紋理特征來實現(xiàn);并且采用八鄰域搜索法(候選區(qū)域周圍擴大八個大小相等的區(qū)域)來解決部分遮擋的問題。

        在開始跟蹤過程中,仍然采用傳統(tǒng)的基于顏色的Mean-shift跟蹤算法。算法中每一次迭代執(zhí)行到公式(3)計算新位置時,傳統(tǒng)跟蹤算法中,在這個位置計算候選目標(biāo)的特征函數(shù),如果遇到遮擋或者光照影響時,目標(biāo)的顏色會造成很大的變化,即計算出的候選目標(biāo)特征函數(shù)將與目標(biāo)函數(shù)的匹配度很低,造成在漂移過程中將會不定向,最終可能導(dǎo)致目標(biāo)遠離跟蹤矩形框。計算出來的新位置很可能是不存在目標(biāo)的。此時程序從沒有目標(biāo)的矩形框執(zhí)行下去,會在以后的連續(xù)幀中繼續(xù)丟失目標(biāo),導(dǎo)致跟蹤的失敗。

        而本文算法考慮了遮擋和光照的影響因素,提出在每一次迭代計算目標(biāo)新位置時,擴大搜索范圍,即在新位置的矩形框周圍擴大八個相等的矩形框(如圖2所示),計算這九個矩形框的LBP特征直方圖,并與初始化時計算的目標(biāo)模板LBP特征直方圖比較,計算兩者的相似度??梢源_定相似度最大的矩形框作為新的候選區(qū)域,則下一次均值漂移迭代由這個矩形框內(nèi)的像素點開始。

        Figure 2 Diagram of increasing the search range around the candidate region by rules圖2 在候選區(qū)域周圍規(guī)則增大搜索范圍示意圖

        計算目標(biāo)模板的LBP紋理特征直方圖[9],設(shè)跟蹤目標(biāo)的中心位于圖像的原點,用矩形區(qū)域表示目標(biāo),空間坐標(biāo)為xi(i=1,2,…,n)。假設(shè)目標(biāo)紋理特征空間被均勻剖分成m個直方圖區(qū)間(bin),目標(biāo)模型的直方圖則表示為pv,每一個bin的直方圖由式(5)計算:

        (6)

        其中,b(lbp(xi))表示像素xi的LBP特征值對應(yīng)的直方圖區(qū)間;v表示直方圖區(qū)間;C表示相應(yīng)的歸一化常數(shù)。

        在采用傳統(tǒng)Mean-shift算法迭代公式計算得到新的位置時,計算通過新位置擴大的搜索矩形框的LBP特征直方圖:

        (7)

        由于增大了候選區(qū)域,導(dǎo)致計算量增大,會引起算法的實時性下降。但是,由于紋理特征的計算簡單的特點,本文將通過實驗表明,即使是擴大了八個搜索區(qū)域,算法的實時性仍保持得較好。

        具體改進算法流程如下:

        步驟1對目標(biāo)狀態(tài)進行初始化y0,計算目標(biāo)顏色特征模型p以及目標(biāo)紋理特征函數(shù)pv。

        步驟2獲得新的一幀圖像,計算候選目標(biāo)的顏色特征模型q。

        步驟3計算基于Bhattacharyya系數(shù)的相似度,此時相似度仍為顏色的相似度。

        步驟4根據(jù)Mean-shift的迭代公式計算目標(biāo)新的位置y以及通過漂移后新的候選區(qū)域。

        步驟5在新的候選區(qū)域采用八鄰域搜索法并運用LBP特征,從九個矩形區(qū)域中確定紋理特征相似度最大的矩形區(qū)域,作為新的候選區(qū)域。

        步驟6如果平移向量范數(shù)Δy≤ε或者迭代次數(shù)大于N(N一般由人為選定,本文N取10)結(jié)束循環(huán),即為目標(biāo)在當(dāng)前幀中的位置;否則,流程回到步驟2。

        Figure 3 Diagram 1 of comparative experiment 1圖3 對比實驗1示意圖1

        Figure 4 Diagram 2 of comparative experiment 1圖4 對比實驗1示意圖2

        針對傳統(tǒng)跟蹤算法的不足,本文算法具有以下優(yōu)點:在有光照的影響下的跟蹤場景,顏色特征函數(shù)變化較大,但跟蹤目標(biāo)的紋理特征變化不大,在迭代確定新位置時,可以消去背景顏色與目標(biāo)顏色相似帶來的影響,更好地跟蹤目標(biāo)。在跟蹤目標(biāo)被部分遮擋時,通過設(shè)計增大搜索區(qū)域,能在目標(biāo)重新出現(xiàn)后,在增大的矩形區(qū)域內(nèi)重新利用LBP特征被檢測出,能在部分遮擋后繼續(xù)跟蹤目標(biāo)。對部分遮擋有一定的魯棒性。

        4 實驗結(jié)果與分析

        本文實驗在MATLAB下進行仿真,實驗圖片序列來自CAVIAR項目具有固定背景的視頻序列,視頻庫Crowd_PET09中的一段視頻序列,以及自行拍攝的圖片序列。本文實驗跟蹤的物體均在初始幀由人工選擇(采用矩形框)。為了驗證所提出算法的優(yōu)勢性,分別對上述幾組圖片序列進行測試,并對仿真結(jié)果進行了對比分析。

        4.1 實驗1

        CAVIAR是關(guān)于動作識別的一個項目,提供了各種環(huán)境下的人體運動視頻。本文從中選取一段在商店走廊的視頻序列,這段視頻背景環(huán)境較為復(fù)雜。圖片序列一共252張,每張圖片分辨率為384×288。視頻庫Crowd_PET09中的一段視頻序列中,行人從光線較強的地方移動到了光照較陰暗的地方,序列由120張720×576 JPEG圖片組成。兩組實驗對比本文算法和傳統(tǒng)目標(biāo)跟蹤算法,實驗效果如圖3、圖4所示。

        圖3實驗選取了第1、90、120、160幀圖片,選取第一幀矩形框內(nèi)的行人為跟蹤目標(biāo)。第一組序列為傳統(tǒng)的基于顏色的目標(biāo)跟蹤方法實驗結(jié)果圖,在發(fā)生遮擋時,丟失了目標(biāo)。第二組為本文算法,在部分遮擋的影響下能穩(wěn)定準(zhǔn)確地跟蹤目標(biāo)。

        圖4實驗選取第1、20、54、70幀圖片,同樣選取第一幀矩形框內(nèi)行人作為跟蹤目標(biāo),第一組為傳統(tǒng)算法,第二組為本文算法。對比結(jié)果顯示本文算法在光照影響條件下保持了跟蹤的準(zhǔn)確性。

        圖5為圖像的紋理特征,分別為圖4實驗序列中第20幀和第70幀。由紋理特征圖可較清晰地觀察出目標(biāo)行人在光照較強下和陰影下的紋理特征基本不變,驗證了紋理特征對光照的不變性。

        Figure 5 Texture characteristics of the image圖5 圖像的紋理特征

        Figure 6 Diagram 1 of Comparative experiments 2圖6 對比實驗2示意圖1

        Figure 7 Diagram 2 of Comparative experiments 2圖7 對比實驗2示意圖2

        4.2 實驗2

        圖片序列來源于200W像素手機相機自行拍攝,圖片為640×352的JPEG圖片。兩組實驗圖片序列分別為753張、590張。拍攝的序列圖片背景較為復(fù)雜,有光照以及樹木或者其他行人的遮擋影響。主要驗證本文算法對光照及遮擋的魯棒性,并與傳統(tǒng)的跟蹤算法及基于LBP的跟蹤算法進行了比較,相關(guān)的對比實驗如圖6、圖7所示。

        圖6實驗選取了第1、41、108、212、260幀圖片。前兩組圖片分別采用基于傳統(tǒng)顏色特征Mean-shift跟蹤算法和基于紋理特征的Mean-shift跟蹤算法,最后一組圖片采用本文算法。實驗均選取第1幀矩形框內(nèi)的行人作為跟蹤目標(biāo)。如圖所示,前兩種跟蹤方法分別在212幀和41幀后,由于復(fù)雜背景的影響,完全丟失了目標(biāo);而本文算法在樹木遮擋或者光照以及背景顏色相似的影響下,仍能準(zhǔn)確地跟蹤到目標(biāo)。

        圖7實驗同樣選取了一組有遮擋以及光照影響的圖片,選取了第1、12、34、268、346幀圖片。選取第1幀矩形框中的行人作為跟蹤目標(biāo)。前兩組圖片序列實驗結(jié)果顯示,在有其他行人遮擋或者樹木遮擋以及光照影響時,先后有丟失跟蹤目標(biāo)的情況,整個跟蹤過程不穩(wěn)定,最終跟蹤失敗。第三組圖片實驗結(jié)果為本文算法結(jié)果,一直能準(zhǔn)確跟蹤目標(biāo),沒有發(fā)生目標(biāo)丟失現(xiàn)象。

        4.3 算法的性能分析

        通過以上實驗仿真對比,可以觀察出本文算法在一些復(fù)雜場景(光照以及部分遮擋)下,與傳統(tǒng)的跟蹤算法以及基于LBP的跟蹤算法比較,跟蹤的準(zhǔn)確性最高。

        實驗1中,兩組圖片序列分別有部分遮擋和光照影響,本文算法運用圖像紋理特征在增大的搜索區(qū)域內(nèi)搜索匹配度最大的區(qū)域作為候選目標(biāo)(算法步驟5),能解決部分遮擋以及光照帶來的影響,所以仍能準(zhǔn)確跟蹤目標(biāo)。而傳統(tǒng)算法因此跟蹤失敗。并且驗證了紋理特征對光照的不變性(圖6所示)。

        實驗2中兩組自行拍攝的路人圖片序列中的跟蹤目標(biāo)均有光照和其他行人遮擋的影響,實驗結(jié)果顯示本文算法能穩(wěn)定準(zhǔn)確地跟蹤目標(biāo)。而與本文算法相比較的兩種傳統(tǒng)算法均跟蹤失敗?;贚BP的跟蹤算法由于沒有增大搜索區(qū)域,當(dāng)發(fā)生部分遮擋時,由于候選目標(biāo)與目標(biāo)的匹配度大大降低,導(dǎo)致跟丟了目標(biāo)。傳統(tǒng)的目標(biāo)跟蹤方法由于只考慮顏色信息而且沒有增大搜索區(qū)域,所以當(dāng)有光照影響或者發(fā)生部分遮擋時,也跟蹤失敗。實驗結(jié)果表明了本文算法理論的可行性。其中實驗2中三種算法的時間開銷對比如表1所示。

        Table 1 Comparison of time overhead表1 時間開銷對比 s/幀

        表1中三種算法時間開銷的統(tǒng)計,均在相同的實驗環(huán)境下針對相同的實驗圖片序列進行,并且對于每種算法,人工選定的跟蹤區(qū)域的初始尺寸相同(因為跟蹤過程中的時間開銷與目標(biāo)的尺寸成正相關(guān),為了便于對比,必須保證三種算法選取的跟蹤區(qū)域大小相同)。其中路人1跟蹤區(qū)域長軸26,短軸8;路人2跟蹤區(qū)域長軸18,短軸14。從統(tǒng)計結(jié)果來看,本文算法時間開銷稍微高于傳統(tǒng)算法,與基于LBP算法區(qū)別不大。因為本文是對于兩種特征的融合以及增大了搜索區(qū)域,大大增加了算法計算復(fù)雜度。但是,從統(tǒng)計結(jié)果看來,本文算法的時間開銷沒有高出很多,仍能保持較好的跟蹤實時性。

        綜合上述,本文基于顏色-紋理特征的Mean-shift目標(biāo)跟蹤算法適用于光照影響以及部分遮擋的跟蹤場景中,與傳統(tǒng)算法以及基于LBP的跟蹤算法比較,魯棒性方面有一定的優(yōu)勢,并能保持較好的實時性。

        5 結(jié)束語

        在一些受光照、背景顏色與目標(biāo)相似以及遮擋旋轉(zhuǎn)影響下的跟蹤場景中,傳統(tǒng)跟蹤算法很難實現(xiàn)對目標(biāo)的準(zhǔn)確跟蹤。為了適應(yīng)跟蹤場景的復(fù)雜性,本文提出一種基于顏色-紋理特征的Mean-shift跟蹤算法,并在考慮已有的結(jié)合算法基礎(chǔ)上采用串接原則進行結(jié)合,以及在候選區(qū)域采用八鄰域搜索法解決部分遮擋問題。通過實驗對比驗證了本文算法的魯棒性有一定優(yōu)勢,而且在加大了計算復(fù)雜度的同時還保持了跟蹤的實時性。特征融合是跟蹤領(lǐng)域的一大趨勢,在將來的研究中應(yīng)該考慮引入更有效的、互補性更強的特征對目標(biāo)進行描述。

        [1] Wang Liang, Hu Wei-ming, Tan Tie-niu. Recent developments in human motion analysis[J]. Pattern Recognition, 2003, 36(3):585-601.

        [2] Sheng Zhi-yuan. An adaptive target tracking algorithm based on multi-feature fusion[C]∥Proc of International Conference on Biomedical Engineering and Computer Science, 2010:1-4.

        [3] Fukunaga K, Hostetler L D. The estimation of the gradient of a density function with applications in pattern recognition[J].IEEE Transactions on Information Theory, 1975,21(1):32-40.

        [4] Cheng Yi-zong. Mean shift, mode seeking, and clustering[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1995, 17(8):790-799.

        [5] Comaniciu D, Meer P. Mean shift analysis and applications[C]∥Proc of the the 7th IEEE International Conference on Computer Vision, 1999:1197-1203.

        [6] Avidan S. Ensemble tracking[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2007, 29 (2):261-271.

        [7] Pouladzadeh P, Semsarzadeh M, Hariri B, et al. An enhanced Mean-shift and LBP-based face tracking method[C]∥Proc of 2011 IEEE International Conference on VCIMS 2011,2011:1-4.

        [8] Li Pei-hua. Image sequences moving target tracking method[M]. Beijing:Science Press,2010.(in Chinese)

        [9] Zhao Chun-hui, Pan Quan, Liang Yan, et al. Video imagery moving targets analysis[M]. Beijing:National Defense Industry Press,2011.(in Chinese)

        [10] Chen Heng-xin,Tang Yuan-yan,Fang Bin,et al. For changes in illumination for face recognition the LBP improved method[J]. Computer Engineering and Applications, 2011,47(3):30-31.(in Chinese)

        [11] Maenpaa T, Pietikainen M. Texture analysis with local binary patterns[M]∥Handbook of Pattern Recognition and Computer Vision 3 rd ed. Washington:World Scientific,2005:197-216.

        [12] Ojala T,Pietikinen M. Multiresolution gray-scale and rotation invariant texture classification with local binary patterns[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002, 24(7):971-987.

        附中文參考文獻:

        [8] 李培華.序列圖像中運動目標(biāo)跟蹤方法[M].北京:科學(xué)出版社,2010.

        [9] 趙春暉,潘泉,梁彥,等.視頻圖像運動目標(biāo)分析[M].北京:國防工業(yè)出版社,2011.

        [10] 陳恒鑫,唐遠炎,房斌,等.用于變化光照下人臉識別的LBP改進方法[J].計算機工程與應(yīng)用,2011,47(3):30-31.

        YAOYuan-qing,born in 1989,MS candidate,his research interests include

        image processing, and pattern recognition.

        李峰(1964-),男,湖南澧縣人,博士,教授,研究方向為圖像處理、模式識別和信息安全。E-mail:lifeng64@139.com

        LIFeng,born in 1964,PhD,professor,his research interests include image processing,pattern recognition, and information security.

        周書仁(1975-),男,江西都昌人,博士,講師,CCF會員(E200027223G),研究方向為圖像處理、模式識別和人工智能。E-mail:zsr_hn@163.com

        ZHOUShu-ren,born in 1975,PhD,lecturer,CCF member(E200027223G),his research interests include image processing,pattern recognition, and artificial intelligence.

        2014年全國高性能計算學(xué)術(shù)年會(HPCChina2014)

        征文通知(第二輪)

        由中國計算機學(xué)會主辦、中國計算機學(xué)會高性能計算專業(yè)委員會、中山大學(xué)共同承辦的“2014年全國高性能計算學(xué)術(shù)年會”(HPC China 2014) 將于2014年11月6日至8日在廣州召開。全國高性能計算學(xué)術(shù)年會是中國一年一度高性能計算領(lǐng)域的盛會,為相關(guān)領(lǐng)域的學(xué)者提供交流合作、發(fā)布最前沿科研成果的平臺,將有力地推動中國高性能計算的發(fā)展。

        征文涉及的領(lǐng)域包括但不限于:高性能計算機體系結(jié)構(gòu)、高性能計算機系統(tǒng)軟件、高性能計算環(huán)境、高性能微處理器、高性能計算機應(yīng)用、并行算法設(shè)計、并行程序開發(fā)、海量信息處理、科學(xué)計算可視化、云計算和網(wǎng)格計算相關(guān)技術(shù)及應(yīng)用,以及其他高性能計算相關(guān)領(lǐng)域。會議錄用論文將分別推薦到《計算機研究與發(fā)展》(EI)、《計算機學(xué)報》(EI)、《軟件學(xué)報》(增刊,EI)、《計算機科學(xué)與探索》(正刊)、《計算機工程與科學(xué)》(正刊)和《計算機科學(xué)》(正刊)等刊物上發(fā)表。會議還將評選優(yōu)秀論文和優(yōu)秀論文提名獎各4名。

        投稿須知:

        本屆大會接收中英文投稿。作者所投稿件必須是原始的、未發(fā)表的研究成果、技術(shù)綜述、工作經(jīng)驗總結(jié)或技術(shù)進展報告。務(wù)必附上第一作者簡歷(姓名、性別、出生年月、出生地、職稱、學(xué)位、研究方向等)、通信地址、郵政編碼、聯(lián)系電話和電子信箱,并注明論文所屬領(lǐng)域。

        投稿要求:稿件請參照《軟件學(xué)報》的論文格式編排。參見《軟件學(xué)報》的投稿指南:http://www.jos.org.cn/ch/reader/view_fixed_content.aspx?id=instructions以及《軟件學(xué)報》模板及排版樣例(http://www.jos.org.cn/ch/reader/view_fixed_content.aspx?id=download)。文章篇幅不做硬性規(guī)定,建議6~8頁。

        會議將邀請知名院士、學(xué)者做大會特邀報告,舉行學(xué)術(shù)報告和分組交流,還將發(fā)布2014年中國HPC TOP100排行榜、進行高性能計算專題研討、高性能計算相關(guān)的CCF ADL培訓(xùn)、高性能計算新技術(shù)與新產(chǎn)品展示等活動。本次會議邀請了美國HPC Advisory Council的加盟,還將邀請國內(nèi)外知名超算中心主任參加,并舉行形式多樣、不同主題的論壇研討,會議期間還將召開“CODESIGN國際研討會”。從中您能了解到國內(nèi)、外高性能計算的最新動態(tài),獲取對您個人的職業(yè)發(fā)展有益的各類信息。歡迎從事高性能計算及相關(guān)研究的同仁踴躍投稿。

        論文提交截止日期:2014年07月15日 論文錄用通知日期:2014年08月15日

        正式論文提交日期:2014年09月15日

        未盡事宜見下一輪通知。

        聯(lián)系人:李希代,陳曉南,李奈青,王曉路

        聯(lián)系電話:010-62600662,020-39943525,020-39943563 傳真:020-39943537

        電子郵箱:xidai.niu@gmail.com,hpcchina2014@163.com,sysusc@mail.sysu.edu.cn

        會議網(wǎng)站: http://hpcchina2014.csp.escience.cn/dct/page/1

        Targettrackingbasedoncolorandthetexturefeature

        YAO Yuan-qing,LI Feng,ZHOU Shu-ren

        (School of Computer and Communication Engineering,Changsha University of Science and Technology,Changsha 410004,China)

        In some complex scenes of tracking, the traditional color feature based target tracking algorithm may have the unstable tracking. To solve this problem, a color and texture feature based target tracking algorithm is proposed. The texture feature is added in the traditional color Mean-shift based target tracking algorithm, and both the texture and the color features are extracted together. According to the sequence principle, the traditional color based mean drift tracking algorithm is still used to search the new position of the target, but, in each iteration process, the texture feature is used to search the optimal target position which has the largest similar feature. And the eight neighborhood search method (8 areas with the same size are expanded around the candidate area) is applied to solve the problem of partial occlusion. The comparative experiments show that the algorithm has better robustness and real-time performance in complex scenes.

        target tracking;color features;Mean-shift;texture feature

        1007-130X(2014)08-1581-07

        2012-11-09;

        :2013-04-10

        國家自然科學(xué)基金資助項目(60973113);湖南省自然科學(xué)基金資助項目(12JJ6057);長沙市科技計劃資助項目(K1203015-11);湖南省標(biāo)準(zhǔn)化戰(zhàn)略項目(2011031)

        TP391.4

        :A

        10.3969/j.issn.1007-130X.2014.08.028

        姚原青(1989-),男,湖南辰溪人,碩士生,研究方向為圖像處理和模式識別。E-mail:qingyuanyao@sina.com

        通信地址:410004 湖南省長沙市長沙理工大學(xué)云塘校區(qū)計算機與通信工程學(xué)院

        Address:School of Computer and Communication Engineering,Yuntang Campus,Changsha University of Science and Technology,Changsha 410004,Hunan,P.R.China

        猜你喜歡
        跟蹤目標(biāo)紋理光照
        節(jié)能環(huán)保 光照萬家(公益宣傳)
        節(jié)能環(huán)保光照萬家(公益宣傳)
        核相關(guān)濾波與孿生網(wǎng)絡(luò)相結(jié)合的目標(biāo)跟蹤算法
        基于BM3D的復(fù)雜紋理區(qū)域圖像去噪
        軟件(2020年3期)2020-04-20 01:45:18
        春光照瑤鄉(xiāng)
        使用紋理疊加添加藝術(shù)畫特效
        TEXTURE ON TEXTURE質(zhì)地上的紋理
        Coco薇(2017年8期)2017-08-03 15:23:38
        基于圖割理論的尺度自適應(yīng)人臉跟蹤算法
        連續(xù)同色調(diào)背景下運動目標(biāo)自適應(yīng)跟蹤
        消除凹凸紋理有妙招!
        Coco薇(2015年5期)2016-03-29 23:22:15
        帮老师解开蕾丝奶罩吸乳视频 | 日本二区视频在线观看| 国产av一区二区三区天美| 五月色婷婷丁香无码三级| 国产乱码一二三区精品| 久久久久久人妻精品一区百度网盘| 日本草逼视频免费观看| 91偷拍与自偷拍亚洲精品86| 乱码丰满人妻一二三区| 久久夜色撩人精品国产小说 | 天天干夜夜操| 91狼友在线观看免费完整版| 日韩av在线手机免费观看| 亚洲欧洲成人精品香蕉网| 女同性黄网aaaaa片| 97久久久久国产精品嫩草影院| 蜜桃视频一区视频二区| 99精品视频69v精品视频| 久久久久久国产精品美女| 国产精品福利久久香蕉中文| 中文字日产幕码三区做法| 国模精品一区二区三区| 色欲麻豆国产福利精品| 亚洲成熟丰满熟妇高潮XXXXX| 国产亚洲精品一区在线| 久热国产vs视频在线观看| 亚洲国产AV无码男人的天堂| 久久精品国产亚洲av热九九热| 国产草逼视频免费观看| 久久久久亚洲av无码专区首jn| 久久精品国产99久久丝袜| 日本一二三区在线视频观看| 丝袜美腿亚洲一区二区| 制服丝袜人妻中文字幕在线| 国产啪精品视频网站免| 手机在线播放av网址| 性高湖久久久久久久久| 亚洲中文欧美日韩在线人| 青青草是针对华人绿色超碰| 麻豆国产精品久久人妻| 丰满人妻无奈张开双腿av|