亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        單目標跟蹤算法綜述*

        2016-11-11 03:47:57汪鴻翔柳培忠駱炎民顧培婷
        海峽科學 2016年7期
        關鍵詞:深度特征模型

        汪鴻翔 柳培忠 駱炎民 洪 銘 顧培婷

        ?

        單目標跟蹤算法綜述*

        汪鴻翔1柳培忠1駱炎民2洪 銘1顧培婷1

        1.華僑大學工學院 2.華僑大學計算機科學與技術學院

        目標跟蹤是計算機視覺領域的一個基本問題,具有廣泛的研究與應用價值。該文根據(jù)算法理論的不同,將目標跟蹤算法分成目標表觀建模和跟蹤策略兩部分,又將目標表觀建模分成生成式跟蹤和判別式跟蹤分別進行介紹;從基于均值漂移和濾波理論兩方面介紹跟蹤策略;并重點介紹了基于深度學習的相關算法,總結(jié)了深度學習算法的優(yōu)缺點。

        目標跟蹤 表觀建模 跟蹤策略 深度學習

        1 概述

        計算機視覺(Computer Vision,CV)是專門研究如何讓計算機像人那樣能夠“看”的學科,是指利用攝像機和電腦代替人眼的作用,使機器能夠做到類似人腦那樣對目標實現(xiàn)提取、識別、跟蹤等功能。

        目標跟蹤是通過分析視頻圖片序列,對檢測出的各個候選目標區(qū)域?qū)嵤┢ヅ洌ㄎ怀鲞@些目標在視頻序列中的坐標。簡單來說,就是在序列圖像中為目標進行定位。目標跟蹤算法研究是計算機視覺領域的熱點,在虛擬現(xiàn)實、人機交互、智能監(jiān)控、增強現(xiàn)實、機器感知等場景中有著重要的研究與應用價值。

        隨著科學技術的不斷進步,目標跟蹤算法也在不停發(fā)展進步,尤其隨著深度學習(deep learning)的發(fā)展,越來越來多的算法從深度學習的角度進行目標跟蹤算法的研究,利用深度學習原理提取出的特征具有更好的目標表達效果。目前關于深度學習的目標跟蹤算法綜述性文章還很少,本文在介紹傳統(tǒng)目標跟蹤算法的基礎上,更多引入深度學習的內(nèi)容,并總結(jié)了深度學習算法的相關優(yōu)缺點。

        目標跟蹤算法的分類有很多種,根據(jù)不同的標準,算法的分類也不同,表1是比較常見的一些分類方法。

        表1 目標跟蹤算法分類

        本文重點介紹單場景下的單目標跟蹤問題。單場景下的目標跟蹤問題主要研究對單個目標的連續(xù)跟蹤,即在單攝像機拍攝的視頻序列中只跟蹤某一個具體目標[1]。這方面的研究圍繞以下兩個基本問題展開:第一,目標表觀建模,也有人稱之為目標匹配問題。它根據(jù)目標的表觀特征數(shù)據(jù)來建立相應的表觀模型,是算法最重要的模塊。表觀模型建立的好壞直接影響到跟蹤的準確性和魯棒性效果,常被采用的特征有輪廓、顏色、紋理、特征點、特征子圖等。采用單一特征的跟蹤常面臨跟蹤準確性差等問題,故而多采用融合多種特征的表觀模型。第二,跟蹤策略。在目標跟蹤過程中,要是為了尋找最佳位置而直接匹配對場景中的所有內(nèi)容,這無疑會增加大量冗余信息,從而導致運算量大、速度慢等缺點[2]。而采用一定的運動模型來估計未來時刻目標可能的位置,通過先驗知識來縮小搜索范圍,無疑會取得有效的效果,代表性方法有隱馬爾科夫模型[3]、卡爾曼濾波[4]、均值漂移算法[5]、粒子濾波[6]等。

        2 目標表觀建模

        近幾年提出的多數(shù)跟蹤算法都是基于tracking-by- detection框架,它們將跟蹤看作檢測問題,根據(jù)對目標表觀的建模方式,可分為兩類:判別式跟蹤和生成式跟蹤[7]。

        2.1 基于生成模型的目標跟蹤算法

        在目標跟蹤中,生成式跟蹤算法不考慮背景信息直接為目標進行建模的算法,通過學習建立一個模型來表示目標,然后使用此模型直接與目標類別進行匹配,以達到跟蹤目的。Ross等人提出基于增量學習的跟蹤方法,用于跟蹤剛性物體或類剛體,但其采用的自適應全局表觀模型無法應對姿態(tài)變化和遮擋[8]。Comaniciu等人將跟蹤建模轉(zhuǎn)化為相似函數(shù)最大化問題,并用顏色核函數(shù)加權(quán)直方圖描述目標,從而實現(xiàn)高效跟蹤,但直方圖信息表達有限,不能表達其他類似空間等信息,制約了算法的性能[9]。Kwon等人將運動模型分割成多個小模塊,提出視覺跟蹤分解(VTD)算法,得到的這些小模塊可以更好地捕獲目標變化[10]。薛模根等人指出,目標可以用目標模板和瑣碎模板綜合表示,并基于稀疏理論提出了L1跟蹤算法,但該算法運算復雜度較高,且無法處理嚴重遮擋等[11]。

        本文根據(jù)模型組成不同,將生成模型分為基于直方圖的生成模型、基于核的生成模型、混合生成模型、基于子空間的生成模型。

        2.1.1 基于直方圖的生成模型

        目標跟蹤中,常將目標對一些特征表達轉(zhuǎn)換成統(tǒng)計特征(如直方圖的形式)來建立相應的跟蹤模型。付永會等人利用彩色圖像的顏色直方圖信息,利用顏色直方圖水平和垂直投影信息建立模板,然后在跟蹤過程中不斷自適應地在線調(diào)整跟蹤目標模板,從而達到跟蹤目的[12]。Frag跟蹤系統(tǒng)通過使用局部塊的直方圖表示對物體的外觀進行建模,以解決部分遮擋問題[13]。Dalal提出一種用來進行物體檢測的特征描述子梯度方向直方圖 (HOG)特征。劉華軍等提出基于HOG特征提取方式,并結(jié)合在線多實例學習的方法,對目標平移旋轉(zhuǎn)變化、遮擋與半遮擋、遠離場景等情況進行跟蹤實驗,取得很好的效果[14]。

        2.1.2 混合高斯模型

        由于高斯混合模型能夠平滑地逼近任意形狀的概率密度分布,近年來常被用于語音識別、圖像處理等方面。簡單地說,高斯混合模型就是使用多個不同參數(shù)的高斯分布進行加權(quán)組合來為觀測樣本建模[15]。

        王金洋等人提出使用多種高斯分布的混合高斯模型來近似目標外形的函數(shù),對每個像素點進行混合高斯建模,通過自適應高斯混合模型的分布來評估判斷哪些像素點為背景,建立在線混合模型以判斷像素點是否為背景模型的一部分[16]。黃蘇雨等人提出一種改進的高斯混合模型,使用K個高斯模型來表示圖像中各個像素點的特征,獲得新的一幀圖像后立即用來更新混合高斯模型[17]。然而,僅使用高斯混合模型來判斷前景與背景準確度還達不到要求,混合模型經(jīng)常使用啟發(fā)式準則或者結(jié)合其他的特征來選擇正確分量以增強跟蹤效果。

        2.1.3 基于核的生成模型

        核密度估計是一種非參數(shù)檢驗方法,在概率論中用來估計未知的密度函數(shù)。在單變量核密度估計的基礎上,可以建立風險價值的預測模型,通過對核密度估計變異系數(shù)的加權(quán)處理,可以建立不同風險價值的預測模型[18]。一般都是從顏色驅(qū)動、集成外形、尺度相關、非對稱、全局模式搜索、連續(xù)核學習的生成模型等方面進行構(gòu)造核密度或構(gòu)造估計模型。文獻[19]對目標的局部標準差特征結(jié)合亮度進行核密度估計,通過均值偏移算法對圖像中的細小目標進行跟蹤。為了避免直方圖的缺點,賈靜平等人提出采用多變量的核密度估計來描述目標的特征分布,引入空間尺度理論在連續(xù)的空間內(nèi)準確表達目標的連續(xù)形變,有效解決目標定位的尺度變化問題[20]。

        2.1.4 基于子空間的生成模型

        大多數(shù)基于子空間表面模型的目標跟蹤算法是在跟蹤之前通過訓練不同光照和姿勢下目標的觀測圖像,得到一組特征基,并用這組特征基表示不同時刻目標表面變化,一旦訓練完成,特征基就保持不變,不能在線更新[21]。孫銳等人利用學習到的PCA正交子空間去除傳統(tǒng)的目標模板聚集的冗余性對目標外觀進行表示,配合改進基于最小均方誤差的觀測模型,提出一種基于主成分分析(PCA)子空間學習的跟蹤算法,建立了一個效果更準確的觀測似然函數(shù),外加一種考慮遮擋的模板更新機制,取得了不錯的跟蹤效果[22]。陸文等人提出魯棒的子空間學習算法進行特征空間的增量學習,并結(jié)合其他增量學習算法,使用粒子濾波進行跟蹤決策,避免了單獨設計模塊來處理目標受到的遮擋情況,使得跟蹤效果更加魯棒[21]。

        2.2 基于判別模型的目標跟蹤算法

        在目標跟蹤中,判別型方法將跟蹤問題建模為一個二元分類問題,用以找到區(qū)分目標物體和背景的決策邊界,最大化地將目標區(qū)域與非目標區(qū)域分別開來。隨著近些年目標特征表達和分類器訓練理論的發(fā)展,許多優(yōu)秀的判別式跟蹤方法不斷涌現(xiàn)[23]。文獻[24]將跟蹤問題轉(zhuǎn)化為一個二分類問題,判斷每個像素是否屬于目標,但單像素的表達能力有限,制約了算法相應場景下的性能。為解決跟蹤中訓練樣本的準確性不足問題,文獻[25]引入多示例學習機制,有效抑制了跟蹤過程中遇到的漂移問題。文獻[26]提出了壓縮跟蹤(CT),用一個稀疏的測量矩陣提取特征,以建立一個稀疏、健壯的目標表觀模型,取得了快速、有效、魯棒的跟蹤效果。文獻[27]提出了一種抗漂移的long-time跟蹤算法,算法提取目標SIFT特征,并進行弱排列,建立了魯棒的目標/背景分類器,使得跟蹤效果更加魯棒。

        判別模型主要有以下幾個研究方向:

        2.2.1 基于boosting和SVM的判別模型

        基于boosting和SVM的判別模型一直被廣泛應用于目標跟蹤領域,這是由于其強大的判別學習能力能夠有效解決最大化類間分離問題。按照算法使用不同的學習策略,可被分為自學習和混合學習兩類,自學習模型使用單獨的信息來源對目標或非目標進行分類判決,而混合學習模型則采用多來源的判決信息進行目標分類判決[28]。文獻[29]針對在線Boosting目標跟蹤算法在面對遮擋場景下跟蹤時經(jīng)常發(fā)生的漂移問題,采用跟蹤得到的置信度高的目標作為正樣本來在線訓練分類器,提出一種結(jié)合分塊的在線Boosting目標跟蹤算法,大大提高了算法在自然場景的跟蹤效果。文獻[30]提出一種基于單個SVM和加權(quán)Mean Shift結(jié)合的目標跟蹤算法。使用基于顏色特征的SVM分類器對像素點進行分類,再結(jié)合對前景目標和背景特征賦以不同權(quán)值的Mean Shift算法,突出前景特征,降低背景噪聲對目標模板的干擾,實現(xiàn)了復雜場景下的目標跟蹤。

        2.2.2 基于隨機學習的判別模型

        與boosting和SVM相比較,隨機學習方法可以構(gòu)建一個復雜的分類器。隨機學習能夠?qū)崿F(xiàn)并行運算,可以同時執(zhí)行特征選取和隨機輸入輸出,這就意味著隨機學習可以使用GPU和多核來加快算法運行速度,節(jié)省算法運行時間。文獻[31]提出一種基于隨機局部均值Hash特征的在線學習跟蹤算法,文章利用已知位置的目標來構(gòu)建初始化的分類器池,利用泊松概率分布建立目標在線更新模型,跟蹤過程中利用跟蹤結(jié)果實時更新訓練分類器的正負樣本,使得算法在復雜環(huán)境下取得不錯的跟蹤效果。受隨機學習的啟發(fā),在線隨機森林、隨機樸素貝葉斯分類器等多種隨機模型被提出來,并應用到視覺跟蹤中,取得不錯的效果。

        2.2.3 基于稀疏表示的判別模型

        近幾年來,稀疏表示取得了很大的發(fā)展,大量研究利用稀疏表示提取目標特征來實現(xiàn)對目標的跟蹤,并取得了不錯的效果。文獻[32]利用粒子濾波方法中目標周圍的采樣粒子具有相似性和依賴性的關系,提出了一個由多個粒子共同構(gòu)建的協(xié)同稀疏模型。文獻[33]構(gòu)造了一個結(jié)構(gòu)化的多任務稀疏學習模型,使得跟蹤模型更加健壯,提升了跟蹤過程的魯棒性。文獻[34]采用部分匹配進行稀疏表示的方法,構(gòu)造了一個一致性的低秩稀疏模型,利用粒子采樣中粒子之間的固有關系提高了跟蹤過程的魯棒性,較好解決了跟蹤過程中遇到的部分遮擋問題[35]。

        2.2.4 基于深度學習的判別模型

        近幾年來,深度學習算法迅速成為研究熱點,并在計算機視覺領域取得了良好的應用效果。2006年,加拿大多倫多大學教授Geoffrey Hinton和他的學生Ruslan Salakhutdinov在《科學》雜志上發(fā)表了一篇文章,開啟了深度學習在學術界和工業(yè)界的浪潮。該文有兩個主要觀點:(1)多隱層的人工神經(jīng)網(wǎng)絡具有優(yōu)異的特征學習能力,學習得到的特征對數(shù)據(jù)有更本質(zhì)的刻畫,從而有利于可視化或分類;(2)深度神經(jīng)網(wǎng)絡在訓練上的難度,可以通過“逐層初始化”(layer-wise pre-training)來有效克服,逐層初始化是通過無監(jiān)督學習實現(xiàn)的[36]。

        深度學習的概念起源于人工神經(jīng)網(wǎng)絡,主要通過神經(jīng)網(wǎng)絡的原理來模仿人腦,通過組合低層特征形成更加抽象的高層表示屬性類別或特征,以發(fā)現(xiàn)數(shù)據(jù)的分布式特征表示[37]。深度學習與傳統(tǒng)的神經(jīng)網(wǎng)絡之間的相同點在于,深度學習采用了神經(jīng)網(wǎng)絡相似的分層結(jié)構(gòu),系統(tǒng)由包括輸入層、隱層(多層)、輸出層組成的多層網(wǎng)絡,每一層可以看作是一個邏輯回歸(Logistic Regression)模型,這是一種很接近人類大腦的分層結(jié)構(gòu)。

        圖1 深度學習網(wǎng)絡

        其中卷積神經(jīng)網(wǎng)絡(CNN)由卷積層和全連接層構(gòu)成,通過共享權(quán)重和池化層(pooling layer)來降低參數(shù)的數(shù)目和提升效果,具有良好地學習圖像深層視覺特征的能力。卷積神經(jīng)網(wǎng)絡是一個多層的神經(jīng)網(wǎng)絡,每層由多個二維平面組成,而每個平面由多個獨立神經(jīng)元組成。卷積神經(jīng)網(wǎng)絡的概念如圖2所示:輸入圖像通過和三個可訓練的濾波器和可加偏置進行卷積,濾波過程如圖1,卷積后在C1層產(chǎn)生三個特征映射圖,對特征映射圖中每組的四個像素再進行求和,加權(quán)值,加偏置,通過一個Sigmoid函數(shù)得到三個S2層的特征映射圖,這些映射圖再進行濾波得到C3層,這個層級結(jié)構(gòu)再和S2一樣產(chǎn)生S4[38]。最終,這些像素值被光柵化,并連接成一個向量輸入到傳統(tǒng)的神經(jīng)網(wǎng)絡,得到輸出。

        圖2 卷積神經(jīng)網(wǎng)絡結(jié)構(gòu)圖

        一種典型的基于深度學習的目標檢測方法包括:對輸入圖像進行分塊操作,提取歸一化圖像塊,再用卷積神經(jīng)網(wǎng)絡對圖像塊進行卷積操作,提取特征,最后用線性分類器對卷積后的區(qū)域塊進行分類。Fan等人同樣利用大量的輔助圖像訓練深度卷積神經(jīng)網(wǎng)絡,并將模型應用于行人跟蹤中,取得了較好的效果[39]。Zhou等人使用多個神經(jīng)網(wǎng)絡的聚合體進行目標跟蹤[40]。然而,這些方法由于缺少大量的跟蹤過程中的實際數(shù)據(jù),所以效果提升的程度有限。為此,Li等人設計了層次較淺的卷積神經(jīng)網(wǎng)絡,設定了一個特殊的損失函數(shù),并以在線的方式對跟蹤過程中產(chǎn)生的樣本進行訓練。另外還有一些方法試圖解決上述兩個問題[41]。Hong等人利用卷積神經(jīng)網(wǎng)絡提取特征,并使用在線更新的SVM對跟蹤過程中的樣本進行分類,將正樣本的特征進行反向傳播,從而得到正樣本對應的顯著圖,并以此顯著圖進行判別式跟蹤[42]。Wang等人利用離線訓練好的卷積神經(jīng)網(wǎng)絡模型提取層次特征,并用以進行在線跟蹤[43]。Zhang等人使用目標區(qū)域中隨機提取的歸一化圖像塊作為卷積神經(jīng)網(wǎng)絡的濾波器,實現(xiàn)了不用訓練卷積神經(jīng)網(wǎng)絡的快速特征提取[44]。Kuen等人提出了一種通過強短時限制和棧式卷積自編碼器學習到目標表示的不變性[45]。

        當前,深度學習的研究目前才剛剛起步,仍有大量工作需要去完成。學界的關注點還是從機器學習的領域借鑒一些可以在深度學習使用的方法,特別是在降維領域。目前一個重點工作就是稀疏編碼,通過壓縮感知理論對高維數(shù)據(jù)進行降維,使得以非常少的元素的向量就可以精確代表原來的高維信號。另一項工作就是半監(jiān)督流行學習,通過測量判斷訓練樣本的相似性,低維空間可以通過這種相似性從高維數(shù)據(jù)投影得到。

        深度學習還有很多核心的問題需要解決,比如對于一個特定的框架,對于多少維的輸入它可以表現(xiàn)得較優(yōu);如何對于一個給定的深度學習架構(gòu),需要融合多少種感知信息;如何去增強一個給定的深度學習架構(gòu),以增強算法的魯棒性和數(shù)據(jù)的不變性。

        3 跟蹤策略

        跟蹤策略的目的是希望所建立的運動模型能夠給出在下一幀圖像中目標的可能狀態(tài),為目標的狀態(tài)估計提供先驗知識,用來在當前幀圖像中找到最優(yōu)的目標位置。

        下面主要從基于均值漂移和基于濾波理論分別介紹。

        3.1 基于均值漂移的目標跟蹤算法

        基于均值漂移(mean shift)的目標跟蹤算法的思想在于采用目標的顏色直方圖作為搜索特征,然后通過不斷迭代均值漂移算法更新搜索目標當前的狀態(tài)。算法在運算速率與實時性上均取得不錯的效果,但是容易受到顏色、光照、尺度變換等原因的干擾,導致準確度下降。針對這一缺點,文獻[46]提出了連續(xù)自適應的mean shift算法——Cam Shift,Cam Shift算法專門對視頻圖像序列進行操作,并對序列中的每一幀圖像都使用mean shift來迭代選擇最佳結(jié)果,從而保證其可以自適應地不斷調(diào)整窗口大小進行跟蹤。文獻[47]對目標模型進行加權(quán)處理,在跟蹤過程中降低了背景噪聲對目標模板的干擾,對跟蹤框進行分塊處理,并分別調(diào)用mean shift進行跟蹤,最后加權(quán)判斷目標的最終位置。

        3.2 基于濾波理論的目標跟蹤算法

        基于濾波理論的目標跟蹤算法的主要思想是利用離散的權(quán)值粒子集合對目標當前分布狀態(tài)的可能進行估計描述,其優(yōu)勢在于能夠有效融合不同種類的特征信息,如輪廓、顏色、紋理、特征點、特征子圖等,具有很好的穩(wěn)定性[48]。常見的算法有卡爾曼濾波、擴展的卡爾曼濾波及粒子濾波方法等。王煒等人[49]將目標劃分為多個區(qū)域,通過卡爾曼濾波預測各個跟蹤區(qū)域的位置,結(jié)合灰度直方圖匹配與空間上下文關系計算出觀測中心,最后再用卡爾曼濾波得出最終的位置,在背景相似于目標遮擋等場景取得不錯的跟蹤效果??柭鼮V波算法多用于線性的、高斯系統(tǒng),而粒子濾波器特別適用于非線性、非高斯系統(tǒng)。Wang等人[50]使用大量的輔助圖像離線訓練了一個棧式去噪自編碼器,對目標候選進行特征提取,并將這樣的特征應用于粒子濾波的框架中,同時,在跟蹤過程中更新自編碼器,使得跟蹤效果更加魯棒。

        4 總結(jié)與展望

        本文對當前的目標跟蹤算法研究成果進行了綜述,分別從目標表觀建模和跟蹤策略對當前流行的算法進行分類,重點綜述了目前最流行的基于深度學習的目標跟蹤算法,并總結(jié)了基于深度學習算法的相關優(yōu)缺點。目前關于跟蹤算法的研究已經(jīng)持續(xù)了很多年,也提出了各種各樣的跟蹤方法,但是還沒有形成一個普適的統(tǒng)一理論框架或體系,而且目標跟蹤在實際情況中遇到很多難點,光照、遮擋、尺度、視角、相似物體與背景噪聲等問題依然沒有得到很好的解決。本文僅僅研究了單場景下單目標跟蹤,而單場景下的多目標跟蹤問題、多場景下的單目標跟蹤問題、多場景下的多目標跟蹤問題都是目前研究的熱點和難點。

        參考文獻:

        [1] 黃凱奇,陳曉棠,康運鋒,等.智能視頻監(jiān)控技術綜述[J].計算機學報,2015(6):1093-1118.

        [2] 逄博.基于粒子濾波的復雜背景下的目標跟蹤方法研究[D].蘭州: 蘭州理工大學, 2012.

        [3] Rabiner L. Atutprial on hidden Markov models and selected applications in seeech recognition[J]. Proceedings of the IEEE,1989,77(2):257-286.

        [4] Bar-Shalon Y, Fortmann TE. Tracking and Data Association[M]. New York: Academic Press,1998.

        [5] Comaniciu D, Ramesh V, Meer P. Real-time tracking of non-rigid objects using mean-shift[C]//Proceedings of the IEEE Conference Computer Vision and Patter Recogition, 2000:142-149.

        [6] Isard M, Blake A. Condensation-conditional density propaga-tion for visual tracking[J]. International Journal of Computer Vision,1998,29(1):5-28.

        [7] WU Yi, LIM Jongwoo, YANG M H. Online object tracking: A benchmark[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2013:1354 - 1362.

        [8] ROSS D, LIM J, LIN R, et al. Incremental learning forrobust visual tracking[J]. International Journal of Compute Vision, 2008, 77(1): 125 - 141.

        [9] COMANICIU D, RAMESH V, MEER P. Kernel-based object tracking[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003, 25(2): 564-577.

        [10] KWON J, LEE K M. Visual tracking decomposition[C]//IEEE Conference on Computer Vision and Pattern Recognition, 2014: 1269 - 1276.

        [11] 薛模根, 朱虹, 袁廣林. 基于在線判別式字典學習的魯棒視覺跟蹤[J].電子與信息學報 , 2015, 37(7): 1654 - 1659.

        [12] 付永會,張風超,張憲民.一種改進的基于顏色直方圖的實時目標跟蹤算法 [J]. 數(shù)據(jù)采集與處理, 2001, 16(3):309-314.

        [13] 余旺盛,田孝華,侯志強,查宇飛.基于局部分塊學習的在線視覺跟蹤 [J]. 電子學報, 2015(1):74-78.

        [14] 劉華軍,王玉坤.基于HOG及在線多實例學習的目標跟蹤算法 [J]. 現(xiàn)代電子技術, 2013, 36(9):116-120.

        [15] 王杰雄,齊向陽.基于高斯混合模型的NSCT變換遙感圖像融合[J]. 科學技術與工程, 2009, 9(14):4057-4062.

        [16] 王金洋,余紅英,樊永生.基于混合高斯模型的運動目標跟蹤算法 [J]. 中國科技信息, 2015(2):77-77.

        [17] 黃蘇雨,熊建強,陳紅,胡平芳.改進混合高斯模型的運動目標檢測與跟蹤算法 [J]. 計算機測量與控制, 2015, 23(3):861-863.

        [18] 申剛,袁偉.MATLAB統(tǒng)計工具箱在教學成績分析中的應用[C]//亞太信息網(wǎng)絡與數(shù)字內(nèi)容安全會議, 2011.

        [19] A Yilmaz,K Shafique,M Shah. Target tracking in airborne forward looking infrared imagery [J]. Image & Vision Computing, 2003, 21(7):623-635.

        [20] 賈靜平,張飛舟,柴艷妹.基于核密度估計尺度空間的目標跟蹤算法 [J]. 清華大學學報(自然科學版), 2009(4):595-598.

        [21] 陸文,蔡敬菊.基于魯棒子空間學習的粒子濾波跟蹤算法 [J]. 計算機應用研究, 2011, 28(9):3579-3584.

        [22] 孫銳,黃靜茹,丁文秀.一種基于子空間學習的實時目標跟蹤算法 [J]. 光電工程, 2015(2):52-58.

        [23] 陳思,蘇松志,李紹滋.基于在線半監(jiān)督 boosting 的協(xié)同訓練目標跟蹤算法 [J].電子與信息學報,2014, 36(4): 888-895.

        [24] AVIDAN S. Ensemble tracking[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2005: 494-501.

        [25] BABENKO B, BELONGIE S, and YANG M H. Visualtracking with online multiple instance learning[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2009: 1003-1010.

        [26] ZHANG KH, ZHANG L, YANG M H. Fastcompressive tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014, 36(10): 2002 - 2015.

        [27] FEDERICO P, BIMBO A D. Object tracking byoversampling local features[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014, 36(12):2538 - 2551.

        [28] 沈忱.視頻監(jiān)控中的預處理、目標檢測和跟蹤方法研究 [D]. 南京: 南京郵電大學, 2014.

        [29] 沈丁成.基于在線Boosting算法的目標跟蹤研究 [D]. 天津: 天津理工大學, 2012.

        [30] 徐俊格. 基于SVM的目標跟蹤算法研究[D]. 南寧: 廣西民族大學, 2011.

        [31] 吳盈,劉哲,陳懇,吉培培.基于隨機局部均值Hash特征的在線學習目標跟蹤 [J]. 計算機工程與應用, 2016(4).

        [32] Zhang T, Ghanem B, Liu S, et al. Robust visual tracking via multi-tasksparse learning[C]//Proceedings of the 2012 IEEE Conference onComputer Vision and Pattern Recognition, 2012:2042-2049.

        [33] Zhang T, Ghanem B, Liu S, et al. Robust visual tracking via structured multi-task sparse learning[J].International Journal of Computer Vision,2013, 101 (2): 367-383.

        [34] Zhang T, Liu S, Ahuja N, et al. Robust visual tracking via consistent low-rank sparse learning[J]. International Journal of Computer Vision, 2014, 111 (2): 171-190.

        [35] 高君宇,楊小汕,張?zhí)熘? 等. 基于深度學習的魯棒性視覺跟蹤方法 [J].計算機學報,2016, 39(7): 1419-1434.

        [36] 余凱,賈磊,陳雨強,徐偉.深度學習的昨天、今天和明天 [J]. 計算機研究與發(fā)展, 2013, 50(9):1799-1804.

        [37] 高常鑫,桑農(nóng).基于深度學習的高分辨率遙感影像目標檢測 [J]. 測繪通報, 2014(S1):108-111.

        [38] 張恒亨.基于傳統(tǒng)方法和深度學習的圖像精細分類研究 [D]. 合肥: 合肥工業(yè)大學, 2014.

        [39] Fan J, Xu W, Wu Y, et al. Human tracking using convolutional neural networks[J]. IEEE Transactions on Neural Networks, 2010, 21 (10): 1610-1623.

        [40] Zhou X, Xie L, Zhang P, et al. An ensemble of deep neural networks for object tracking[J]. IEEE International Conference on Image Processing, 2014: 843-847.

        [41] Li H, Li Y, Porikli F. DeepTrack: Learning Discriminative Feature Representations Online for Robust Visual Tracking[J]. IEEE Transactions on Image Processing, 2015, 25(4).

        [42] Hong S, You T, Kwak S, et al. Online Tracking by Learning iscriminative Saliency Map with Convolutional Neural Network[EB/OL]. http://arxiv. org/pdf/1502.06796.pdf

        [43] Wang N, Li S, Gupta A, et al. Transferring Rich Feature Hierarchies for Robust Visual Tracking[EB/OL]. http://arxiv.org/pdf/1501.04587.pdf

        [44] Zhang K, Liu Q, Wu Y, et al. Robust Tracking via Convolutional Networks without Learning[EB/OL]. http://arxiv. org/pdf/1501.04505.pdf

        [45] Kuen J, Lim KM, Lee CP. Self-taught learning of a deep invariant representation for visual tracking via temporal slowness principle[J]. Pattern Recognition, 2015, 48(10): 2964-2982.

        [46] 薛桐.基于CamShift的運動目標跟蹤算法研究 [D]. 沈陽: 沈陽理工大學, 2015

        [47] 王田,劉偉寧,韓廣良,杜超,劉戀.基于改進Mean Shift的目標跟蹤算法 [J]. 液晶與顯示, 2012, 27(3):396-400.

        [48] 鐘華民.基于特征描述和色彩模型的目標跟蹤算法研究[D]. 上海: 上海交通大學, 2014.

        [49] 王煒,郭毓,俞信.基于卡爾曼濾波的多區(qū)域關聯(lián)運動目標跟蹤 [J]. 計算機應用, 2012, 32(11):3174-3177.

        [50] Wang N, Yeung D-Y. Learning a deep compact image representation forvisual tracking[J]. Advances in Neural Information Processing Systems, 2013: 809-817.

        華僑大學研究生科研創(chuàng)新能力培育計劃資助項目。

        猜你喜歡
        深度特征模型
        一半模型
        深度理解一元一次方程
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        深度觀察
        深度觀察
        深度觀察
        抓住特征巧觀察
        亚洲一级黄色毛片| 亚洲综合网站久久久| 中文字幕v亚洲日本| 精品国产福利在线观看网址2022| 色人阁第四色视频合集网| 成av人大片免费看的网站| 午夜亚洲av日韩av无码大全| 无码人妻精品一区二区三区在线 | 亚洲爆乳无码精品aaa片蜜桃 | 日本国产成人国产在线播放| 人人爽人人爽人人爽| 在线观看国产精品91| 免费观看一区二区三区视频| 久久精品国产亚洲av果冻传媒| 人妻少妇精品视频一区二区三区| 在线观看一区二区女同| 久久精品国产精品亚洲艾| 日本熟妇人妻xxxx| 欧美成年黄网站色视频| 高潮喷水无遮挡毛片视频| 极品少妇人妻一区二区三区 | 老岳肥屁熟女四五十路| 亚洲色偷偷偷综合网| 日韩人妻无码一区二区三区久久99| 色婷婷久久免费网站| 女人18毛片aa毛片免费| 和黑人邻居中文字幕在线| 精品中文字幕久久久人妻| 亚洲精品日本久久久中文字幕| 免费av网站大全亚洲一区| 国产精品v欧美精品v日韩精品| 日韩成人无码v清免费| 亚洲精品一区二在线观看| 少妇做爰免费视频了| 久久精品国产9久久综合| 日韩人妻系列在线视频| av中文字幕一区不卡| 国产精品人妻一码二码尿失禁 | 国产精品国产三级国产an | 暖暖 免费 高清 日本 在线| 欧美疯狂做受xxxxx高潮|