亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        視頻目標跟蹤典型算法比較與分析

        2015-09-19 03:42:36吳澤民徐任暉趙曉通徐明月
        電視技術(shù) 2015年23期
        關(guān)鍵詞:跟蹤器外觀變化

        王 蘋,張 磊,吳澤民,徐任暉,趙曉通,徐明月

        (解放軍理工大學 通信工程學院,江蘇 南京210007)

        視頻目標跟蹤實質(zhì)是在連續(xù)圖像序列中找到具有最相似特征的區(qū)域,核心問題是對輸入圖像序列每一幀圖像中的目標能夠?qū)崿F(xiàn)魯棒地預測其運動趨勢。隨著計算機自身硬件配置性能的不斷提高,加之圖像處理分析技術(shù)的不斷發(fā)展,實時目標跟蹤得以實現(xiàn)。

        穩(wěn)定的視頻跟蹤正是視頻分析處理和計算機視覺的重要問題,在軍事偵查、自動機器人導航、人機交互接口、視頻標注等方面有廣泛應(yīng)用。視頻圖像提供的信息是復雜和海量的,依靠人工進行信息識別和提取是不現(xiàn)實的。2009 年,美軍通過無人機在阿富汗和伊拉克獲得的視頻信息總量,一個人需要24 年才能看完;在通常戰(zhàn)備執(zhí)勤時,需要至少一個人緊盯屏幕發(fā)現(xiàn)可疑目標,而其他的輔助人員進行信息甄別和記錄。在我國,邊海防哨所已經(jīng)配備了大量的視頻采集裝備,但是受人員數(shù)量限制,僅僅依靠人工方法進行視頻目標的捕捉與記錄不但工作強度大,而且工作效率低,及時發(fā)現(xiàn)可疑目標的時機往往把握不住。目前,各大城市的智能交通系統(tǒng)都具有車輛違章檢測功能,可以極大地提高發(fā)現(xiàn)交通違法事件的效率。但是受目前視頻目標跟蹤性能的限制,還僅能對交通燈道口的違章行為進行識別,不能完全獲得各路段的違章行為。各方面的需求不斷推動著視頻目標跟蹤研究的進一步深化。

        然而,當目標發(fā)生劇烈的運動或者形變、背景相對復雜或者與目標相似、外界環(huán)境發(fā)生較大變化時,大多數(shù)視頻目標跟蹤算法不具有很好的魯棒性。歸結(jié)來看,對于大量跟蹤算法[1]的問題主要是由于外觀和運動的變化造成的。外觀變化包括目標幾何和光度變化,如遮擋、形變、亮度變化等。運動變化往往發(fā)生在較低幀率的視頻中或者目標運動劇烈的情況下。以上問題的存在,使得視頻目標跟蹤研究仍有很長的路要走。

        本文將對視頻目標跟蹤技術(shù)的研究背景、系統(tǒng)組成原理進行闡述;對當前幾種前沿的跟蹤算法進行詳細的分析比較;并且對跟蹤算法的評價指標和典型的標準庫進行介紹;最后總結(jié)了視頻目標跟蹤技術(shù)的發(fā)展前景和面臨的困難挑戰(zhàn)。

        1 視頻目標跟蹤系統(tǒng)構(gòu)成及研究現(xiàn)狀

        視頻目標跟蹤系統(tǒng)是一個動態(tài)系統(tǒng)的估計問題,利用的是目標在時間上的連續(xù)性和空間上的相關(guān)性。視頻目標跟蹤系統(tǒng)的一般框架如圖1 所示。

        圖1 視頻目標跟蹤系統(tǒng)框架

        典型的視頻目標跟蹤系統(tǒng)由四部分組成:目標初始化,外觀模型,運動估計,目標定位。目標初始化包括手動初始化和自動初始化,手動初始化是用戶用邊緣框注釋出目標的位置,自動則通過檢測器進行檢測目標。外觀模型包括視覺描述和統(tǒng)計模型。視覺描述主要是用不同類型的視覺特征來構(gòu)造魯棒的目標描述子。統(tǒng)計模型是用統(tǒng)計學習的方法構(gòu)造有效的數(shù)學模型來識別目標。運動估計主要是利用了狀態(tài)方程和觀測方程構(gòu)成的預測器進行估計,常用預測器包括線性回歸技術(shù)[2],卡爾曼濾波[3]和粒子濾波[4-6]等。目標的跟蹤定位是目標跟蹤中的核心問題,主要利用貪婪搜索或者是最大后驗概率來實現(xiàn)[7]。

        目前,很多跟蹤算法通過在特征提取、外觀模型和結(jié)構(gòu)信息方面的改進,跟蹤的精度和魯棒性得到極大的提高。較為常用的特征包括像素值[8]、顏色[9-12]、文本描述子[13-14]。利用目標外觀模型較為常用的有顏色分布[10-11]、子空間[8,15]、支持向量機SVM[16]以及稀疏表示[17-19]等。類似于目前較為流行的目標檢測[20]和識別[21]的算法,通過獲取結(jié)構(gòu)信息對目標進行跟蹤的算法也越來越多[9,22-24]。在目標發(fā)生遮擋和形變時,目標的內(nèi)部結(jié)構(gòu)信息對于模型的恢復和魯棒性跟蹤尤為重要。

        2 典型視頻目標跟蹤算法

        判定目標跟蹤算法好壞往往從魯棒性、準確性和快速性三個方面比較[25]:

        1)魯棒性(Robustness)。魯棒性是指在各種環(huán)境中算法都能實現(xiàn)對目標的穩(wěn)定持續(xù)跟蹤。但往往會受到目標自身形變、環(huán)境中的光照變化、部分或者全遮擋等影響。

        2)準確性(Accuracy)。在目標跟蹤的研究中,準確性包括兩個方面,一是對運動目標檢測的準確性,這一點主要是在監(jiān)控系統(tǒng)中要求比較嚴格,為的是對目標檢測的漏警率和虛警率的降低,將檢測到真實目標的概率提高;另一個是對運動目標分割的準確性,主要應(yīng)用在圖像壓縮編碼領(lǐng)域,其實質(zhì)是圖像分割(Image Segmentation)問題。將運動目標和背景進行準確的分割后,方便提取目標準確的運動信息。

        3)快速性(Speed)。在實際的視頻目標跟蹤系統(tǒng)中,對運動目標實時的跟蹤就要求跟蹤算法必須快速,計算量相對較小。然而跟蹤算法本身處理的圖像序列包含大量的數(shù)據(jù),所需的運算量極大,很難能夠滿足實時的要求。一種通用的減小運算量的方法是利用金字塔分解或者小波變換將圖像分層處理;另一種思路是設(shè)計專用硬件實現(xiàn)實時的視頻目標跟蹤。

        本節(jié)將從以上提到的跟蹤器性能出發(fā),詳細介紹當前前沿的四種視頻目標跟蹤算法,即LGT,TLD,ALIEN 和DGT,并對其工作原理、性能進行分析和比較。

        2.1 LGT(Local-Global layer Tracker)跟蹤器

        隨著低成本、小規(guī)模攝像機傳感器的應(yīng)用不斷增多,對視頻序列的魯棒的自動跟蹤需求也隨之迅速增加[26]。實際應(yīng)用中,目標外觀隨著形變、角度變化、光照變化等因素的變化而變化。因此,魯棒的跟蹤取決于能否隨著目標外形的變化自適應(yīng)地更新目標模型。

        最早是Stolkin 等人[27]進行的兩層模型的嘗試。目標像素的亮度模型的重新學習使用剛性目標物體的運動和幾何模型增強結(jié)構(gòu)。L.Cehovin 等人在2013 年針對目標迅速和劇烈的外觀變化提出一種雙層視覺LGT 模型[28],即整合的目標全局和局部外觀的兩層模型。跟蹤算法如圖2 所示。

        圖2 雙層結(jié)構(gòu)目標跟蹤算法

        其中,局部層是由局部塊組成的集合,反映目標外觀發(fā)生的幾何變化。隨著目標幾何形變,局部層通過移除或添加局部塊來更新結(jié)構(gòu)。添加的局部塊是由全局層約束得到的。全局層主要是反映目標全局的視覺特性,包括顏色、形狀和表面上的局部運動。全局層的更新需要依賴跟蹤過程中得到的穩(wěn)定的局部塊。LGT 算法的魯棒性更好,并且跟蹤精度更高,對參數(shù)變化不敏感。這篇文章的重要貢獻就是在兩層模型的貝葉斯公式中應(yīng)用了雙層約束。

        這種交叉的雙層視頻模型是較為先進的技術(shù),效果優(yōu)于其他的跟蹤器。

        2.2 TLD(Tracking-Learning-Detection)跟蹤器

        考慮手持攝像機拍攝的視頻流,各種事物從相機拍攝范圍內(nèi)出入。僅在單獨的一幀中用邊緣框框出了感興趣目標,而需要解決的問題是,在接下來的每一幀中自動標出目標的邊緣框或者當目標沒有出現(xiàn)時給出提示。該視頻流需要長時間實時跟蹤處理。在文獻[29]中,將這類任務(wù)定義為長期跟蹤問題。

        解決長期跟蹤問題的關(guān)鍵是目標的檢測。首先,目標外觀會變化,甚至跟初始幀中外觀沒有任何關(guān)聯(lián);其次一個成功的長期跟蹤器要能夠應(yīng)對尺度、光照的變化,復雜背景,部分遮擋,以及實時地完成處理。

        在文獻[29]中Kalal 的出發(fā)點立足于單獨的跟蹤或檢測無法解決長期跟蹤問題。文中提出一種新穎的跟蹤框架TLD(Tracking-Learning-Detection),如圖3 所示。文章將長期的目標跟蹤分解為跟蹤、學習、檢測。跟蹤器逐幀跟蹤目標,檢測器局部化目前位置出現(xiàn)的所有外觀,在必要時修正跟蹤器,學習階段評估檢測器的誤差并更新,避免這些誤差。作者研究確定檢測器誤差并學習,提出一種新穎的學習方式(P-N學習):1)P 評估遺漏的檢測;2)N 評估錯誤預警。學習過程模型化為一個離散的動態(tài)系統(tǒng),學習中確保有改善的情況被查找到。

        圖3 TLD 算法跟蹤框架

        Kalal 提出的TLD 跟蹤系統(tǒng),能夠?qū)崿F(xiàn)對視頻流中的目標的實時地跟蹤、學習、檢測,利用標準數(shù)據(jù)庫和同時期較為前沿的跟蹤器相比,TLD 的長期實時跟蹤性能優(yōu)于其他跟蹤器。

        2.3 ALIEN(Appearance Learning In Evidential Nuisance)跟蹤器

        文獻[30]中給出妨礙因素(Nuisance Factors)的定義。妨礙因素是指影響圖像結(jié)構(gòu)處理的因素,不是用于跟蹤的直接興趣點,然而又必須考慮在內(nèi)。妨礙因素分為可逆妨礙和不可逆妨礙??赡娣恋K主要是指反差、視角變化等,不可逆妨礙包括遮擋、傳感器量化、一般光照變化等。不可逆的妨礙通??梢赞D(zhuǎn)化為可逆妨礙。

        ALIEN 跟蹤器利用弱匹配目標模板的多尺度不變局部特征,考慮到三維形狀和平面的絕對偏差,以及陰影、遮擋、傳感器量化等不可逆妨礙因素的影響。同時基于傳遞匹配特性的無參學習算法,將目標從上下文分離出來,防止遮擋情況下的目標模板的錯誤更新。這種學習準則在緩慢變化的情況下具有漸近穩(wěn)定的特性,確保了算法在長時間跟蹤中的無偏移特性。

        文章作者從一般的觀察出發(fā),嘗試同時解決可逆和非可逆的妨礙因素。基于這種考慮,作者選用局部特征來表示目標,同時利用過采樣保留多數(shù)目標和場景信息。

        文中算法的基本流程如圖4 所示。

        圖4 ALIEN 算法流程圖

        2.4 DGT(Dynamic-Graph-Tracking)跟蹤器

        目前,很多文章對遮擋問題都有所討論,例如將目標進行水平垂直的分割對抗遮擋;稀疏表示對遮擋問題也不敏感;以及利用場景學習機制、上下文信息等。絕大多數(shù)的跟蹤器在解決遮擋問題[9,18,31]時沒有考慮到目標自身的形變[12,23]問題。針對目標形變問題通常采用局部塊進行表示,但此時塊之間的結(jié)構(gòu)信息將被忽略。

        文獻[35]在一個統(tǒng)一的框架中同時考慮到遮擋和形變的問題,引入動態(tài)圖進行跟蹤。圖表示利用目標的內(nèi)部結(jié)構(gòu)信息,能夠識別幾何形變的目標,同時能夠借助目標未被遮擋部分定義出被遮擋目標。

        作者的基本思路是:首先,將視頻目標跟蹤問題公式化為跟蹤動態(tài)無向圖的問題,即目標圖和候選圖的匹配問題,利用馬爾科夫隨機場(Markov Random Filed)將候選圖中的局部塊與背景分割,再利用譜聚類(Spectral Clustering)的方法完成圖匹配;其次,目標狀態(tài)利用塊一致性的依賴關(guān)系通過帶權(quán)重的投票獲得,同時由前景和背景的分割進一步改善;最后,有效地在線更新機制更新模型,魯棒地適應(yīng)目標結(jié)構(gòu)的變化。

        文中的算法同時考慮到目標出現(xiàn)遮擋和發(fā)生形變的情況,利用無向圖更好地記錄目標的內(nèi)部信息,有效對抗遮擋和形變。

        2.5 對比與歸納

        通過對上述4 種跟蹤器的工作原理的詳細分析,可以歸納出以下幾點:

        1)LGT 算法在目標表示上結(jié)合局部和全局特征。局部特征包含大量空間信息,對部分遮擋具有魯棒性,全局特征作為局部特征選取時的約束信息。雙層的貝葉斯公式對跟蹤進行雙層約束,提高目標模型更新的精確性,基本達到實時的要求。但是實際應(yīng)用中該算法對于雜亂背景,以及目標發(fā)生尺度變化時都較為敏感。

        2)TLD 算法能夠通過檢測、學習跟蹤目標,針對長期實時的跟蹤環(huán)境,處理效果較好。但由于算法沒有考慮到目標的遮擋和形變等問題,在處理非剛性目標跟蹤中存在一定的局限性。同時針對劇烈運動的目標跟蹤效果不佳。

        3)ALIEN 算法無差別地處理可逆和不可逆妨礙因素,算法對遮擋是否發(fā)生作出判定給出不同的計算思路。將目標和上下文同時進行建模和模型更新,保留了較多跟蹤目標的信息。但在復雜背景下以及目標發(fā)生形變的情況下,跟蹤器將無法準確跟蹤。

        4)DGT 算法提出利用無向圖表征目標,將目標跟蹤的問題公式化為無向圖匹配問題,同時在長期跟蹤中具有漸近穩(wěn)定的特性。該算法同時考慮到目標的遮擋和形變問題。但是無加權(quán)表示的無向圖在尺度發(fā)生變化時較為敏感。同時由于光照變化造成的前景、背景不易區(qū)分也給跟蹤帶來一定的難度。

        幾種算法各有優(yōu)勢和劣勢,針對不同的應(yīng)用場景,需要充分理解它們的算法特性加以改進應(yīng)用。同時算法較為新穎的思路為今后的研究給出極大的啟示。

        3 算法評價指標及標準庫

        近年來,視頻目標跟蹤技術(shù)在計算機視覺領(lǐng)域的廣泛應(yīng)用推動著跟蹤算法的不斷提升改進。但是仍舊有很多的因素影響著跟蹤算法的性能。因此,評估主流跟蹤算法的優(yōu)勢和劣勢非常重要,能夠給未來這個方向的研究提供更多的方向。

        首先,關(guān)于跟蹤算法的評價指標問題。定量分析(Quantitative Analysis)算法性能,能夠更加清晰地看出算法的各方面優(yōu)勢。較為常用的指標包括成功率(Success Rate)如Pascal Score[33],F(xiàn)-measure,和精度率(Precision Rate)如CLE(Center-Location-Error),Precision Plot[13,34]。其次,用于測試的數(shù)據(jù)庫也是至關(guān)重要的部分。具有代表性的數(shù)據(jù)庫對綜合評估跟蹤算法至關(guān)重要?,F(xiàn)有的用于視頻跟蹤的監(jiān)控場景的視頻庫包括VIVID[35],CAVIAR[36],PETS,VIRAT(Video and Image Retrieval Analysis Tool)等。

        3.1 視頻目標跟蹤算法評價指標

        多數(shù)跟蹤算法將目標表示為邊緣框(A Bounding Box),通過比較邊緣框重疊面積確定跟蹤的成功率(Success Rate)。

        式中,Bp,Bgt分別表示跟蹤器跟蹤的目標邊緣框和真實邊緣框(Ground Truth),等式右邊表示邊緣框交疊部分面積占邊緣框并面積的比率。設(shè)置門限值t0(一般取0.5),大于此門限為跟蹤成功,小于則跟蹤失敗。

        2)F-measure,與之類似

        跟蹤精度率(Precision Rate)的比較,較為常用的指標也有兩種。

        3)CLE(Center-Location-Error),計算跟蹤的邊緣框內(nèi)中心點與真實邊緣框內(nèi)中心點的像素距離。距離越大表示跟蹤的精確度越低。

        4)Precision Plot,近段時間的研究常用Precision Plot 來衡量整體跟蹤的表現(xiàn)。主要反映的是跟蹤器估計出的位置距離真實位置在某個門限范圍內(nèi)的圖像幀的百分率。門限值單位為像素。

        3.2 視頻目標跟蹤算法標準庫

        可用于測試的視頻庫有很多,但是大多數(shù)的圖像序列沒有給出真實位置注釋(Ground Truth Annotations),在進行定量評估時會產(chǎn)生誤差。包含多種特殊場景(光照變化、復雜背景、部分遮擋或全遮擋等)同時具有真實位置的數(shù)據(jù)庫非常的重要。

        2008 年美國國防部高級研究項目署開始的VIRAT(Video and Image Retrieval Analysis Tool)系統(tǒng),用于進行無人機航拍圖像的分析處理,用以實現(xiàn)針對特定事件的有效預警等功能。視頻庫包含多場景,如大型公共場所、停車場、校園等。背景復雜簡單情況不一,同時包含攝像機自身運動的情況。另外,文獻[37]收集構(gòu)建了目前較為常用且含真實位置標注的具有典型代表性的圖像序列數(shù)據(jù)庫,如遮擋、劇烈形變、光照變化、陰影情況等。

        以上數(shù)據(jù)庫都包含復雜多樣的場景狀況,普遍適用于跟蹤器的測試,是較為全面合理的測試數(shù)據(jù)庫。

        4 視頻目標跟蹤技術(shù)發(fā)展前景與挑戰(zhàn)

        視頻目標跟蹤技術(shù)是一個多學科相結(jié)合的研究領(lǐng)域,包括機器視覺、人工智能、計算機科學、模式識別、圖像處理等方面。該領(lǐng)域仍處在發(fā)展階段,很多的問題亟需解決。跟蹤的特征選擇、動態(tài)外觀模型、運動估計等方面將是研究非常重要的領(lǐng)域。目前,研究人員針對特定的應(yīng)用場景下的視頻目標跟蹤問題已經(jīng)提出了很多的解決的方案策略,但是仍然存在著很多的進步空間,需要新的思路進行完善。

        綜上,對視頻目標跟蹤技術(shù)的未來發(fā)展趨勢可以歸結(jié)如下:一是運動目標外觀的模型化,即外觀建模,運動目標外觀模型隨著目標自身運動能夠自適應(yīng)的作出調(diào)整是目前的一個研究的熱點問題;二是目標模型的更新策略,較多的算法在模型更新階段會出現(xiàn)誤差和偏移,往往會導致跟蹤失敗;三是多傳感器的視頻目標跟蹤,這其中就要重點考慮到數(shù)據(jù)關(guān)聯(lián)融合的問題;四是對目標動作的識別問題,通過目標運動狀態(tài)進行目標的進一步的行為分析。

        5 結(jié)語

        本文對視頻目標跟蹤算法中較為常見的問題進行歸納,對該技術(shù)進行了綜述,重點分析比較了目前較為前沿的跟蹤算法。對跟蹤性能比較的評價指標以及標準庫進行簡單介紹。視頻目標跟蹤基本流程是利用目標的運動信息、顏色、紋理等特征采樣描述子形式描述目標,通過外觀建模以及模型更新的策略實現(xiàn)運動目標的運動狀態(tài)的預測,獲取目標的位置信息。

        由于最終的具體應(yīng)用背景的不同,視頻目標跟蹤領(lǐng)域的研究內(nèi)容存在較大差異,極具挑戰(zhàn)性的問題也有很多,不管是在研究領(lǐng)域還是在實際的工程應(yīng)用中都具有非常重要的意義和廣闊的前景。

        [1]蔡榮太,吳元昊,王明佳,等.視頻目標跟蹤算法綜述[J]. 電視技術(shù),2010,34(12):135-138.

        [2]ELLIS L,DOWSON N,MATAS J,et al. Linear regression and adaptive appearance models for fast simultaneous modelling and tracking[J]. International Journal of Computer Vision,2011,95(2):154-179.

        [3]KALMAN R E. A new approach to linear filtering and prediction problems[J]. Journal of Fluids Engineering,1960,82(1):35-45.

        [4]ISARD M,BLAKE A. Condensation—conditional density propagation for visual tracking[J]. International Journal of Computer Vision,1998,29(1):5-28

        [5]ARULAMPALAM M S,MASKELL S,GORDON N,et al.A tutorial on particle filters for online nonlinear/non-Gaussian Bayesian tracking[J].IEEE Trans.Signal Processing,2002,50(2):174-188.

        [6]SHEN C,BROOKS M J,VAN DEN H A.Augmented particle filtering for efficient visual tracking[C]//Proc. ICIP 2005.[S.l.]:IEEE Press,2005:856-859.

        [7]LI X,HU W,SHEN C,et al. A survey of appearance models in visual object tracking[J]. ACM Trans. Intelligent Systems and Technology,2013,4(4):58.

        [8]LIM J,ROSS D A,LIN R S,et al.Incremental learning for visual tracking[C]//SAUL LK,WEISS Y BOTTOU L.Advances in Neural Information Processing Systems 7.[S.l.]:Neural Information Processing Systems Foundation,Inc.,2004:793-800.

        [9]ADAM A,RIVLIN E,SHIMSHONI I. Robust fragments-based tracking using the integral histogram[C]//Proc.2006 IEEE Computer Society Conference on Computer vision and pattern recognition,[S.l.]:IEEE Press,2006:798-805.

        [10]COMANICIU D,RAMESH V,MEER P. Real-time tracking of non-rigidobjects using mean shift[C]//Proc.2000 IEEE Conference on Computer Vision and Pattern Recognition.[S.l.]:IEEE Press,2000:142-149.

        [11]PéREZ P,HUE C,VERMAAK J,et al. Color-based probabilistic tracking[M]//Computer vision—ECCV 2002.[S.l.]:Springer Berlin Heidelberg,2002:661-675.

        [12]WANG S,LU H,YANG F,et al.Superpixel tracking[C]//Proc.ICCV 2011.[S.l.]:IEEE Press,2011:1323-1330.

        [13]BABENKO B,YANG M H,BELONGIE S. Robust object tracking with online multiple instance learning[J]. IEEE Trans. Pattern Analysis and Machine Intelligence,2011,33(8):1619-1632.

        [14]GRABNER H,BISCHOF H. On-line boosting and vision[C]//Proc.CVPR 2006.[S.l.]:IEEE Press,2006:260-267.

        [15]WEN L,CAI Z,LEI Z,et al. Online spatio-temporal structural context learning for visual tracking[M]//Computer Vision–ECCV 2012.Berlin:Springer,2012:716-729.

        [16]TIAN M,ZHANG W,LIU F.On-line ensemble SVM for robust object tracking[M]//Computer Vision – ACCV 2007. Berlin:Springer,2007:355-364.

        [17]LIU B,HUANG J,YANG L,et al. Robust tracking using local sparse appearance model and k-selection[C]//Proc. CVPR 2011.[S.l.]:IEEE Press,2011:1313-1320.

        [18]MEI X,LING H. Robust visual tracking using L1 minimization[C]//Proc. ICCV 2009.[S.l.]:IEEE Press,2009:1436-1443.

        [19]ZHANG K,ZHANG L,YANG M. Fast compressive tracking[J].IEEE Trans. Pattern Analysis&Machine Intelligence,2014,36(10):2002-2015.

        [20]FELZENSZWALB P F,GIRSHICK R B,MCALLESTER D,et al.Object detection with discriminatively trained part-based models[J]. IEEE Transa. Pattern Analysis and Machine Intelligence,2010,32(9):1627-1645.

        [21]QUATTONI A,COLLINS M,DARRELL T. Conditional random fields for object recognition[C]//Proc.Advances in Neural Information Processing Systems 2004.[S.l.]:Neural Information Processing Systems Foundation,Inc.,2004:1097-1104.

        [22]GRACIANO A B V,CESAR R M,BLOCH I. Graph-based object tracking using structural pattern recognition[C]//Proc.Computer Graphics and Image Processing,2007.[S.l.]:IEEE Press,2007:179-186.

        [23]KWON J,LEE K M. Tracking of a non-rigid object via patchbased dynamic appearance modeling and adaptive basin hopping monte carlo sampling[C]//Proc. CVPR 2009. [S.l.]:IEEE Press,2009:1208-1215.

        [24]YANG M,WU Y,HUA G. Context-aware visual tracking[J].IEEE Trans. Pattern Analysis and Machine Intelligence,2009,31(7):1195-1209.

        [25]侯志強,韓崇昭. 視覺跟蹤技術(shù)綜述[J]. 自動化學報,2006,32(4):603-617.

        [26]WANG X. Intelligent multi-camera video surveillance:a review[J].Pattern recognition letters,2013,34(1):3-19.

        [27]STOLKIN R,GREIG A,HODGETTS M,et al.An EM/E-MRF algorithm for adaptive model based tracking in extremely poor visibility[J].Image and Vision Computing,2008(26):480-495.

        [28]CEHOVIN L,KRISTAN M,LEONARDIS A. Robust visual tracking using an adaptive coupled-layer visual model[J]. IEEE Trans.Pattern Analysis and Machine Intelligence, 2013, 35(4):941-953.

        [29]KALAL Z,MIKOLAJCZYK K,MATAS J. Tracking-learning-detection[J]. IEEE Trans. Pattern Analysis and Machine Intelligence,2012,34(7):1409-1422.

        [30]PERNICI F,DEL BIMBO A.Object tracking by oversampling local features[J]. IEEE Trans. Pattern Analysis and Machine Intelligence,2014,36(12):2538-2551.

        [31]GRABNER H,MATAS J,VAN GOOL L,et al. Tracking the invisible:Learning where the object might be[C]//Proc. CVPR 2010.[S.l.]:IEEE Press,2010:1285-1292.

        [32]CAI Z,WEN L,LEI Z,et al.Robust deformable and occluded object tracking with dynamic graph[J]. IEEE Trans. Image Processing,2014,23(12):5497-5509.

        [33]EVERINGHAM M,VAN GOOL L,WILLIAMS C K I,et al. The pascal visual object classes(VOC)challenge[J]. International Journal Of Computer Vision,2010,88(2):303-338.

        [34]HENRIQUES J F,CASEIRO R,MARTINS P,et al.Exploiting the circulant structure of tracking-by-detection with kernels[M]//Computer Vision–ECCV 2012.Berlin:Springer,2012:702-715.

        [35]COLLINS R,ZHOU X,TEH S K.An open source tracking testbed and evaluation web site[C]//Proc.IEEE International Workshop on Performance Evaluation of Tracking and Surveillance. [S.l.]:IEEE Press,2005:17-24.

        [36]FISHER R B.The PETS04 surveillance ground-truth data sets[C]//Proc.6th IEEE international workshop on performance evaluation of tracking and surveillance.[S.l.]:IEEE Press,2004:1-5.

        [37]WU Y,LIM J,YANG M H. Online object tracking:A benchmark[C]//Proc.CVPR 2013.[S.l.]:IEEE Press,2013:2411-2418.

        猜你喜歡
        跟蹤器外觀變化
        外觀動作自適應(yīng)目標跟蹤方法
        A Shopping Story to Remember
        光伏跟蹤器陣列跟蹤精度的測算方法研究
        太陽能(2022年3期)2022-03-29 05:15:50
        不論外觀還是聲音,它都很美 Yamaha(雅馬哈)A-S3200合并功放
        從9到3的變化
        學生天地(2020年14期)2020-08-25 09:20:58
        淺析一種風光儲一體化跟蹤器
        太陽能(2020年3期)2020-04-08 03:27:10
        超長待機的自行車位置跟蹤器
        這五年的變化
        特別文摘(2018年3期)2018-08-08 11:19:42
        雙向多軌跡判定方法在目標跟蹤中的應(yīng)用研究
        方外觀遺跡舊照
        紫禁城(2017年6期)2017-08-07 09:22:52
        亚洲精品v欧洲精品v日韩精品| 91国产超碰在线观看| 一本大道加勒比东京热| 精品一区二区av在线| 人妻体内射精一区二区三区| 日韩精品久久久肉伦网站| 亚洲精品久久久久久| 九九99久久精品在免费线97| 中文字幕日本五十路熟女| 人妻少妇久久中中文字幕| 熟女人妇 成熟妇女系列视频| 真人与拘做受免费视频| 人妻少妇一区二区三区| 美女被搞在线观看一区二区三区| 亚洲av手机在线网站| 亚洲精品色婷婷在线影院| 日韩精品无码av中文无码版| 久久久亚洲精品蜜桃臀| 国产精品第一区亚洲精品| 青青草成人在线免费视频| 三年中文在线观看免费大全| 日本一区午夜艳熟免费| 一本色道久久综合狠狠躁中文| 一区二区三区日本视频| 少妇无码太爽了在线播放 | 免费无遮挡禁18污污网站| 风流少妇又紧又爽又丰满| 蜜桃网站在线免费观看视频| 日本免费看片一区二区三区| 少妇被又大又粗又爽毛片| 人妻少妇av中文字幕乱码| 午夜精品久视频在线观看 | 一区二区视频在线国产| 蜜臀av在线播放一区二区三区 | 八区精品色欲人妻综合网| 日韩精品人妻中文字幕有码| 国产激情综合五月久久| 欧美激情在线播放| 亚洲av无码男人的天堂在线| 久久久久久一本大道无码| 成人av资源在线播放|