亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種運(yùn)用顯著性檢測(cè)的行為識(shí)別方法

        2018-02-27 10:57:54王曉芳齊春
        關(guān)鍵詞:背景區(qū)域檢測(cè)

        王曉芳,齊春

        (1.西安交通大學(xué)電子與信息工程學(xué)院,710049,西安;2.齊魯工業(yè)大學(xué)(山東省科學(xué)院)電氣工程與自動(dòng)化學(xué)院,250353,濟(jì)南)

        行為識(shí)別即利用計(jì)算機(jī)自動(dòng)提取視頻中的行為特征并判別行為類別,在視頻監(jiān)控、人機(jī)交互、虛擬現(xiàn)實(shí)等領(lǐng)域具有廣闊的應(yīng)用前景。稠密軌跡法[1]是近年來(lái)一種比較成功的行為識(shí)別方法,該方法通過(guò)提取視頻稠密采樣點(diǎn)的軌跡來(lái)獲取行為的長(zhǎng)時(shí)段特征。然而,傳統(tǒng)的稠密軌跡法在提取軌跡時(shí)不能很好地區(qū)分行為區(qū)域和背景,對(duì)包含相機(jī)運(yùn)動(dòng)的視頻,除行為區(qū)域之外背景區(qū)域也會(huì)產(chǎn)生大量的軌跡,這種背景軌跡和感興趣的行為關(guān)系不大,其存在限制了行為識(shí)別性能。

        為了改進(jìn)傳統(tǒng)的稠密軌跡法,許多文獻(xiàn)提出只獲取行為區(qū)域內(nèi)的稠密軌跡用于描述行為特征,這類方法目前主要存在2種思路。鑒于背景軌跡通常由相機(jī)運(yùn)動(dòng)產(chǎn)生,第一種思路先通過(guò)估計(jì)相機(jī)運(yùn)動(dòng)校正視頻的光流,再利用校正后的光流消除背景軌跡[2-3]??紤]到行為區(qū)域通常比背景區(qū)域顯著,另一種思路先通過(guò)檢測(cè)視頻顯著性獲取行為區(qū)域,再提取行為區(qū)域內(nèi)軌跡[4-5],這種思路的關(guān)鍵在于顯著性檢測(cè)。文獻(xiàn)[4]將低秩矩陣恢復(fù)應(yīng)用于運(yùn)動(dòng)信息檢測(cè)視頻的顯著性,但是不能解決行為區(qū)域內(nèi)部運(yùn)動(dòng)一致性的問(wèn)題;文獻(xiàn)[5]能夠確定視頻中的真實(shí)顯著圖,但依賴于觀察者的眼部運(yùn)動(dòng)數(shù)據(jù);文獻(xiàn)[6]利用字典學(xué)習(xí)和稀疏編碼獲取視頻顯著性,但是沒(méi)有充分利用運(yùn)動(dòng)信息;此外,現(xiàn)有文獻(xiàn)中也存在許多其他顯著性檢測(cè)方法[7-9],但大多不是面向行為區(qū)域獲取而設(shè)計(jì)。獲取視頻中行為區(qū)域的關(guān)鍵在于如何區(qū)分行為區(qū)域和背景,而不能只考慮一般意義上的顯著性。無(wú)論視頻是在靜態(tài)或者動(dòng)態(tài)場(chǎng)景中獲取,運(yùn)動(dòng)信息都是區(qū)分行為區(qū)域和背景的重要依據(jù)。對(duì)于包含相機(jī)運(yùn)動(dòng)的視頻,從總體上看,其背景運(yùn)動(dòng)的空域分布具有較高的一致性,而行為運(yùn)動(dòng)的空域分布具有一定的不規(guī)則性,所以行為區(qū)域相對(duì)于背景通常具有較高的運(yùn)動(dòng)顯著性,可以通過(guò)運(yùn)動(dòng)顯著性檢測(cè)方法將其從背景中分離。然而,一些大的行為區(qū)域內(nèi)部也存在局部一致運(yùn)動(dòng),而有些背景區(qū)域也包含局部不規(guī)則運(yùn)動(dòng),此時(shí)一般的運(yùn)動(dòng)顯著性檢測(cè)方法難以將它們很好地區(qū)分。

        鑒于此,本文提出一種采用兩階段顯著性檢測(cè)獲取視頻中的行為區(qū)域的方法,并將其應(yīng)用于軌跡法行為識(shí)別。本文方法主要包括2個(gè)階段:第1階段,將低秩矩陣恢復(fù)算法[10]應(yīng)用于運(yùn)動(dòng)信息計(jì)算子視頻內(nèi)每個(gè)塊的初始顯著性,并借此將子視頻所有塊劃分為候選前景集合和絕對(duì)背景集合;第2階段,利用絕對(duì)背景集合中所有塊的運(yùn)動(dòng)向量構(gòu)建字典,通過(guò)稀疏表示算法[11]獲取候選前景集合中所有塊的細(xì)化顯著性。在此基礎(chǔ)上,對(duì)顯著性進(jìn)行閾值化得到二值顯著圖用于指示行為區(qū)域,最后將其融入稠密跟蹤過(guò)程以提取行為區(qū)域軌跡用于行為識(shí)別。與其他顯著性檢測(cè)方法相比,上述兩階段方法能夠更充分地考慮行為區(qū)域和背景區(qū)域的運(yùn)動(dòng)特點(diǎn),從而以更高的對(duì)比度突出視頻中的行為區(qū)域。

        1 顯著性和行為區(qū)域檢測(cè)

        設(shè)長(zhǎng)度為T的視頻V=[I1,I2,…,IT],It表示第t幀,在時(shí)域?qū)分割成長(zhǎng)度均為w的K個(gè)互不重疊的子視頻,即V=[V1,V2,…,VK],第k個(gè)子視頻為Vk=[I(k-1)w+1,I(k-1)w+2,…,Ikw]。在空域?qū)⒚總€(gè)子視頻劃分成M×N個(gè)大小相等且互不重疊的時(shí)空塊,劃分后的Vk可用一個(gè)3D分塊矩陣表示

        (1)

        式中:Pn為第n個(gè)時(shí)空塊,大小為s×s×w,其中s為空域大小,w為實(shí)域長(zhǎng)度。下面以Vk為例,利用兩階段顯著性檢測(cè)方法獲取子視頻中的行為區(qū)域,其總體流程如圖1所示。

        1.1 初始顯著性檢測(cè)及候選前景和絕對(duì)背景劃分

        圖1 本文行為區(qū)域檢測(cè)流程

        本文采用文獻(xiàn)[4]中的方法計(jì)算子視頻的初始顯著性。一般來(lái)說(shuō),由運(yùn)動(dòng)相機(jī)拍攝的視頻,背景運(yùn)動(dòng)空域分布具有一致性,相關(guān)性較強(qiáng),可以認(rèn)為處于一個(gè)低秩的子空間,行為運(yùn)動(dòng)空運(yùn)分布具有隨意性,相關(guān)性較弱,可以看作稀疏誤差。基于上述特點(diǎn),通過(guò)低秩矩陣恢復(fù)算法將子視頻的運(yùn)動(dòng)信息分解成低秩部分和稀疏誤差部分,利用后者計(jì)算視頻塊的初始顯著性,并據(jù)此劃分子視頻的候選前景和絕對(duì)背景。

        為了檢測(cè)Vk的初始顯著性,需構(gòu)建其運(yùn)動(dòng)矩陣。為此,先獲取每個(gè)塊的運(yùn)動(dòng)向量,以塊Pn為例,先將其每一幀內(nèi)所有像素點(diǎn)的光流按照空域位置順序排列得到對(duì)應(yīng)幀的運(yùn)動(dòng)向量,其內(nèi)第l幀的運(yùn)動(dòng)向量為

        (2)

        X=[x1,x2,…,xMN]

        (3)

        通過(guò)求解如下低秩矩陣恢復(fù)優(yōu)化問(wèn)題,可將X分解為一個(gè)低秩矩陣B和一個(gè)稀疏矩陣F

        s.t.X=B+F

        (4)

        式中:λ是用于平衡低秩和稀疏的參數(shù),其值設(shè)置為λ=1.1/[max(2s2w,MN)]1/2。式(4)優(yōu)化問(wèn)題可通過(guò)增廣拉格朗日乘子法(ALM)[12]求解。

        按照這種方法,行為區(qū)域塊因包含行為運(yùn)動(dòng)可以獲得較高的顯著性值,而背景塊因不包含行為運(yùn)動(dòng)獲得較低的顯著性值。然而,對(duì)于一些大的行為區(qū)域,其內(nèi)部某些行為運(yùn)動(dòng)因具有局部一致性被沉積到低秩矩陣B中,而對(duì)于一些背景區(qū)域,其內(nèi)部運(yùn)動(dòng)因具有局部不規(guī)則性而被包含到稀疏矩陣F中,由此導(dǎo)致行為區(qū)域和背景的顯著性差異較小,所以利用初始顯著性很難將所有行為區(qū)域和背景很好地分離。這里通過(guò)選定一個(gè)較小的閾值Ts,將所有可能行為區(qū)域塊(顯著性大等于Ts)都劃分到一個(gè)候選前景集合Sf中,而將剩余絕對(duì)背景塊(顯著性小于Ts)劃分到一個(gè)絕對(duì)背景集合Sb中。

        1.2 候選前景顯著性細(xì)化

        利用初始顯著性進(jìn)行集合劃分時(shí),由于Ts較小,一些背景塊也被劃分到集合Sf中。為了將Sf中真正的行為區(qū)域塊分離出來(lái),需要計(jì)算其中的每一個(gè)塊的細(xì)化顯著性,以增加行為區(qū)域和背景的顯著性對(duì)比度。一般情況下,對(duì)于Sf中真正的行為區(qū)域塊,其運(yùn)動(dòng)信息即使和鄰近塊具有相似性,但都明顯不同于絕對(duì)背景塊;對(duì)于Sf中的背景塊,其運(yùn)動(dòng)信息即使含有一定的變化,也和絕對(duì)背景塊具有較高的相似性?;诖?本節(jié)利用Sb中所有塊的運(yùn)動(dòng)向量構(gòu)建字典,對(duì)Sf中每一個(gè)塊的運(yùn)動(dòng)向量進(jìn)行稀疏表示,再利用重構(gòu)誤差計(jì)算塊的細(xì)化顯著性。這樣,行為區(qū)域塊因?yàn)檩^難重構(gòu)而容易獲得較高的顯著性值;相反,背景塊因較易重構(gòu)而容易獲得較低的顯著性值。

        為了計(jì)算Sf中每一個(gè)塊的細(xì)化顯著性,將Sb中所有塊的運(yùn)動(dòng)向量按列堆疊,得到Vk的絕對(duì)背景運(yùn)動(dòng)矩陣Xb,再將Xb作為字典,對(duì)Sf中的每個(gè)塊的運(yùn)動(dòng)向量進(jìn)行稀疏表示。以Sf中第r個(gè)塊為例,可通過(guò)求解以下的優(yōu)化問(wèn)題得到其運(yùn)動(dòng)向量xfr的稀疏表示

        (5)

        式中:αr為稀疏表示系數(shù)向量。

        考慮到背景塊一般與它的鄰近背景塊相關(guān)性更強(qiáng),為了使Sf中的背景塊獲得更低的重構(gòu)誤差,利用Sb中的每個(gè)塊和當(dāng)前被重構(gòu)塊的空域距離作為Xb中對(duì)應(yīng)原子的權(quán)重。Xb中第i個(gè)原子xbi的權(quán)重為

        (6)

        式中:cr和ci分別為當(dāng)前被重構(gòu)塊和Sb中第i個(gè)塊的中心;dist(cr,ci)為cr,ci之間的歸一化歐式距離;σ為調(diào)節(jié)參數(shù)。Xb中所有原子的權(quán)重組成一個(gè)權(quán)重向量wr,將其引入式(5),可以得到加權(quán)稀疏表示的目標(biāo)函數(shù)

        (7)

        利用文獻(xiàn)[13]中的優(yōu)化工具箱可以求解式(7)獲得稀疏表示系數(shù)向量αr,由此計(jì)算重構(gòu)誤差sr,將其作為當(dāng)前被重構(gòu)塊(Sf中第r個(gè)塊)的細(xì)化顯著性

        sr=‖xfr-Xbαr‖2

        (8)

        重復(fù)上述過(guò)程,可以獲取候選前景集合Sf中所有塊的細(xì)化顯著性,將其和絕對(duì)背景集合Sb中所有塊的初始顯著性按照塊的空域位置進(jìn)行組合,可以得到子視頻Vk的顯著性矩陣Sk。Sk是一個(gè)塊級(jí)的顯著性矩陣,利用空域插值法將其調(diào)整為視頻幀的原始大小,即獲得Vk的像素級(jí)顯著性矩陣,再進(jìn)行閾值化可以得到Vk的二值顯著圖Mk。Mk中位置為(x,y)的元素mxy用于指示子視頻Vk任意一幀內(nèi)的點(diǎn)(x,y)是否屬于行為區(qū)域,如果mxy=1,屬于行為區(qū)域,否則屬于背景。

        按照上述兩階段法可以計(jì)算視頻中所有子視頻的二值顯著圖,從而獲取視頻行為區(qū)域。

        2 軌跡提取和行為識(shí)別

        和文獻(xiàn)[5]類似,將檢測(cè)得到的二值顯著圖和稠密跟蹤相結(jié)合來(lái)提取行為區(qū)域軌跡。具體來(lái)說(shuō),在稠密采樣點(diǎn)跟蹤過(guò)程中,先通過(guò)光流獲取下一幀上的候選軌跡點(diǎn),再利用二值顯著圖判斷其是否處于行為區(qū)域,如果是則認(rèn)為是有效軌跡點(diǎn),否則判其無(wú)效并終止當(dāng)前軌跡。計(jì)算識(shí)別率時(shí),對(duì)每一條軌跡計(jì)算4種特征形狀(Shape)、梯度方向直方圖(HOG)、光流方向直方圖(HOF)和運(yùn)動(dòng)邊界直方圖(MBH),并利用FV(Fisher vector)對(duì)每一種特征進(jìn)行獨(dú)立編碼以獲取視頻級(jí)行為特征,最后將4種視頻級(jí)行為特征輸入多核學(xué)習(xí)支撐向量機(jī)(SVM)判別行為類別。

        3 實(shí)驗(yàn)結(jié)果和分析

        3.1 實(shí)驗(yàn)設(shè)置

        為了驗(yàn)證本文方法的有效性,在Hollywood2[14]和YouTube[15]2個(gè)實(shí)際場(chǎng)景視頻數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)測(cè)試。Hollywood2共包含1 707個(gè)視頻,分為12個(gè)行為類別;YouTube共包含1 168個(gè)視頻,分為11個(gè)行為類別,每個(gè)類別的視頻又分為25組。檢測(cè)顯著性和行為區(qū)域時(shí),設(shè)置子視頻長(zhǎng)度為5幀,塊的空域大小為5×5像素,第1、第2階段的顯著性閾值分別設(shè)置為10和50。提取行為區(qū)域軌跡時(shí),設(shè)置空域采樣間隔為5像素。計(jì)算行為識(shí)別率時(shí),對(duì)于Hollywood2數(shù)據(jù)集,將其中823個(gè)視頻用作訓(xùn)練樣本,剩余884個(gè)視頻用作測(cè)試樣本;對(duì)于YouTube數(shù)據(jù)集,每次利用一組作為測(cè)試樣本,其余各組用作訓(xùn)練樣本,最終識(shí)別率是25組識(shí)別率的均值。

        3.2 顯著性和行為區(qū)域檢測(cè)結(jié)果

        圖2 采用本文方法進(jìn)行行為區(qū)域檢測(cè)的各階段結(jié)果

        采用本文方法對(duì)2個(gè)數(shù)據(jù)集中5個(gè)行為視頻投籃、騎馬、走出汽車、奔跑和站起的行為區(qū)域進(jìn)行檢測(cè),各階段的檢測(cè)結(jié)果如圖2所示。除最后一個(gè)外,其余視頻都包含了不同程度、不同類型的相機(jī)運(yùn)動(dòng)。由圖2可以看出:第1階段檢測(cè)到的初始顯著性整體對(duì)比度較低,尤其是行為區(qū)域的中間部分,由于運(yùn)動(dòng)存在局部一致性,導(dǎo)致其顯著性值更小;第2階段得到的細(xì)化顯著性能夠突出大部分行為區(qū)域(包括中間部分),較好地抑制了背景區(qū)域。以上結(jié)果表明,本文兩階段檢測(cè)方法能夠充分考慮行為區(qū)域和背景區(qū)域的運(yùn)動(dòng)的特點(diǎn),無(wú)論視頻是否包含相機(jī)運(yùn)動(dòng),都能獲得較好的檢測(cè)結(jié)果。

        為了進(jìn)一步驗(yàn)證本文行為區(qū)域檢測(cè)方法的優(yōu)越性,圖3將本文檢測(cè)結(jié)果和現(xiàn)有文獻(xiàn)最新方法進(jìn)行對(duì)比。其中,文獻(xiàn)[8]是一種基于超像素圖和時(shí)空生長(zhǎng)的一般視頻顯著性檢測(cè)方法,文獻(xiàn)[16]采用一種基于加權(quán)稀疏表示的顯著性檢測(cè)方法獲取視頻中的行為區(qū)域。由圖3可以看出:本文方法檢測(cè)的顯著性具有較高的對(duì)比度,能夠明顯地區(qū)分行為區(qū)域和背景區(qū)域;文獻(xiàn)[8]方法的顯著性雖然也能夠突出視頻中的行為區(qū)域,但其對(duì)比度低于本文方法;文獻(xiàn)[16]方法的顯著性在行為區(qū)域內(nèi)部較低。

        圖3 本文方法和文獻(xiàn)[8,16]方法的檢測(cè)結(jié)果對(duì)比

        3.3 行為區(qū)域軌跡提取結(jié)果

        采用本文方法和傳統(tǒng)稠密跟蹤方法對(duì)5個(gè)視頻的行為區(qū)域軌跡進(jìn)行檢測(cè),結(jié)果如圖4所示。由圖4可以看出:本文方法提取的軌跡不僅具有較好的連續(xù)性,而且絕大部分位于行為區(qū)域;當(dāng)視頻中存在相機(jī)運(yùn)動(dòng)時(shí),傳統(tǒng)的稠密跟蹤方法不僅在行為區(qū)域,而且在背景區(qū)域也會(huì)產(chǎn)生大量軌跡。

        圖4 本文方法和傳統(tǒng)稠密方法的行為區(qū)域軌跡比較

        3.4 行為識(shí)別結(jié)果

        為了驗(yàn)證本文方法的識(shí)別性能,分別在2個(gè)數(shù)據(jù)集Hollywood2和YouTuber計(jì)算本文方法(SDT)、傳統(tǒng)稠密軌跡方法(DT)以及兩者視頻級(jí)特征級(jí)聯(lián)方法(SDT+DT)的總體識(shí)別結(jié)果,如表1所示。由表1可見(jiàn),在2個(gè)數(shù)據(jù)集上,SDT的識(shí)別結(jié)果都明顯優(yōu)于DT,而二者級(jí)聯(lián)能夠進(jìn)一步提高識(shí)別率。圖5比較了本文方法(SDT)和傳統(tǒng)稠密軌跡跟蹤方法(DT)對(duì)2個(gè)數(shù)據(jù)集上的4個(gè)特征的識(shí)別結(jié)果。由圖5不難看出,在2個(gè)數(shù)據(jù)集上,SDT各個(gè)特征的識(shí)別率都優(yōu)于DT。

        表1 采用SDT、DT方法及兩者特征級(jí)聯(lián)SDT+ DT方法在2個(gè)數(shù)據(jù)集上的總體識(shí)別結(jié)果

        (a)Hollywood2

        (b)YouTube圖5 本文方法和傳統(tǒng)稠密軌跡跟蹤方法對(duì)2個(gè)數(shù)據(jù)集上的4個(gè)特征的識(shí)別率比較

        為了進(jìn)一步驗(yàn)證本文行為識(shí)別方法的有效性,將其和現(xiàn)有文獻(xiàn)中的稠密軌跡跟蹤法[1]及其他改進(jìn)方法[2,3,5,17-19]進(jìn)行比較。表2列出了本文與文獻(xiàn)[1-3,5,17]在Hollywood2數(shù)據(jù)集上的最優(yōu)識(shí)別結(jié)果,通過(guò)比較可以看出,本文方法的識(shí)別率雖然稍低于文獻(xiàn)[2]中的方法,但明顯高于其他文獻(xiàn)中的方法。本文方法與文獻(xiàn)[1,17-19]方法在YouTube數(shù)據(jù)集上的最優(yōu)識(shí)別結(jié)果如表3所示,顯然本文方法獲得了最高的識(shí)別率。

        表2 本文方法與5種現(xiàn)有文獻(xiàn)方法在Hollywood2 數(shù)據(jù)集上的識(shí)別率比較

        表3 本文方法與4種現(xiàn)有文獻(xiàn)方法在YouTube 數(shù)據(jù)集上的識(shí)別率比較

        4 結(jié) 論

        本文針對(duì)稠密軌跡行為識(shí)別法存在的問(wèn)題,采用一種兩階段顯著性檢測(cè)方法獲取視頻中的行為區(qū)域,并提取行為區(qū)域軌跡用于行為識(shí)別。第1階段通過(guò)低秩矩陣恢復(fù)算法檢測(cè)初始顯著性,并據(jù)此將子視頻劃分為候選前景和絕對(duì)背景;第2階段利用稀疏表示算法獲取候選前景的細(xì)化顯著性。這種檢測(cè)方法能夠以更高的對(duì)比度突出行為區(qū)域,抑制背景區(qū)域。此外,以子視頻和塊為基礎(chǔ),考慮了顯著性時(shí)空相關(guān)性,增強(qiáng)了檢測(cè)到的行為區(qū)域的時(shí)空連續(xù)性,有利于提高軌跡的連續(xù)性和完整性。實(shí)驗(yàn)結(jié)果表明,無(wú)論視頻是否包含相機(jī)運(yùn)動(dòng),本文方法都能較好地檢測(cè)其中的行為區(qū)域,獲取的行為識(shí)別結(jié)果優(yōu)于傳統(tǒng)稠密軌跡法和大部分改進(jìn)方法。

        [1] WANG H, KLASER A, SCHMID C, et al. Dense trajectories and motion boundary descriptors for action recognition [J]. International Journal of Computer Vision, 2013, 103: 60-79.

        [2] WANG H, SCHMID C. Action recognition with improved trajectories [C]∥Proceedings of IEEE International Conference on Computer Vision. Piscataway, NJ, USA: IEEE, 2013: 3551-3558.

        [3] JAIN M, JEGOU H, BOUTHEMY P. Better exploiting motion for better action recognition [C]∥Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ, USA: IEEE, 2013: 2555-2562.

        [4] WANG X, QI C. Saliency-based dense trajectories for action recognition using low-rank matrix decomposition [J]. Journal of Visual Communication & Image Representation, 2016, 47: 361-374.

        [5] VIG E, DORR M, COX D. Space-variant descriptor sampling for action recognition based on saliency and eye movements [C]∥Proceedings of 12th European Conference on Computer Vision. Berlin, Germany: Springer, 2012: 84-97.

        [6] SOMASUNDARAM G, CHERIAN A, MORELLAS V, et al. Action recognition using global spatio-temporal features derived from sparse representations [J]. Computer Vision and Image Understanding, 2014, 123(7): 1-13.

        [7] 方志明, 崔榮一, 金璟璇. 基于生物視覺(jué)特征和視覺(jué)心理學(xué)的視頻顯著性檢測(cè)算法 [J]. 物理學(xué)報(bào), 2017, 66(10): 319-332. FANG Zhiming, CUI Rongyi, JIN Jingxuan. Video saliency detection algorithm based on biological visual feature and visual psychology theory [J]. Acta Physica Sinica, 2017, 66(10): 319-332.

        [8] LIU Z, LI J, YE L, et al. Saliency detection for unconstrained videos using superpixel-level graph and spatiotemporal propagation [J]. IEEE Transactions on Circuits & Systems for Video Technology, 2017, 27(12): 2527-2542.

        [9] 陳昶安, 吳曉峰, 王斌, 等. 復(fù)雜擾動(dòng)背景下時(shí)空特征動(dòng)態(tài)融合的視頻顯著性檢測(cè) [J]. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào), 2016, 28(5): 802-812. CHEN C A, WU X F, WANG B, et al. Video saliency detection using dynamic fusion of spatial-temporal features in complex background with disturbance [J]. Journal of Computer-Aided Design & Computer Graphics, 2016, 28(5): 802-812.

        [10]CANDES E J, LI X, MA Y, et al. Robust principal component analysis? [J]. Journal of the ACM, 2011, 58(3): 11.

        [11]WRIGHT J, YANG A Y, GANESH A, et al. Robust face recognition via sparse representation [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2009, 31(2): 210-227.

        [12]LIN Z, CHEN M, MA Y. The augmented Lagrange multiplier method for exact recovery of corrupted low-rank matrices [EB/OL]. (2013-10-18) [2015-12-10]. https: ∥arxiv.org/pdf/1009.5055v3.pdf.

        [13]MAIRAL J. SPAMS: a sparse modeling software, v2.5 [EB/OL]. (2014-05-25) [2015-12-26]. http: ∥spams-devel. gforge.inria. fr.

        [14]MARSZALEK M, LAPTEV I, SCHMID C. Actions in context [C]∥Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ, USA: IEEE, 2009: 2929-2936.

        [15]LIU J, LUO J, SHAH M. Recognizing realistic actions from videos in the wild [C]∥Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ, USA: IEEE, 2009: 1996-2003.

        [16]WANG Xiaofang, QI Chun. LIN Fei. Combined trajectories for action recognition based on saliency detection and motion boundary [J]. Signal Processing Image Communication, 2017, 57: 91-102.

        [17]CHO J, LEE M, CHANG H J, et al. Robust action recognition using local motion and group sparsity [J]. Pattern Recognition, 2014, 47(5): 1813-1825.

        [18]PENG X, QIAO Y, PENG Q. Motion boundary based sampling and 3D co-occurrence descriptors for action recognition [J]. Image and Vision Computing, 2014, 32(9): 616-628.

        [19]WU J, ZHANG Y, LIN W. Towards good practices for action video encoding [C]∥Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ, USA: IEEE, 2014: 2577-2584.

        猜你喜歡
        背景區(qū)域檢測(cè)
        “新四化”背景下汽車NVH的發(fā)展趨勢(shì)
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        《論持久戰(zhàn)》的寫作背景
        晚清外語(yǔ)翻譯人才培養(yǎng)的背景
        小波變換在PCB缺陷檢測(cè)中的應(yīng)用
        關(guān)于四色猜想
        分區(qū)域
        基于嚴(yán)重區(qū)域的多PCC點(diǎn)暫降頻次估計(jì)
        大地资源中文第三页| 国产欧美va欧美va香蕉在线| 成人影院在线观看视频免费 | 日本一级特黄aa大片| 亚洲va无码va在线va天堂| 久久综合第一页无码| 久久精品无码专区东京热| 亚洲色图视频在线观看,| 亚洲一区二区三区四区精品| 人妻中文字幕在线网站| 国产亚洲精品久久久久婷婷瑜伽| 亚洲欧美另类精品久久久| 在线无码免费看黄网站| 日本一区二区三区经典视频| 精品人妖一区二区三区四区| 99精品国产一区二区三区| 午夜一级在线| av大片网站在线观看| 亚洲国产精品情侣视频| 疯狂添女人下部视频免费| 人人狠狠综合久久亚洲婷婷| 亚洲av噜噜狠狠蜜桃| 亚洲av极品尤物不卡在线观看| 国产99久久久国产精品~~牛| 欧美尺寸又黑又粗又长| 97精品国产高清自在线看超| 蜜桃精品国产一区二区三区| 女优一区二区三区在线观看 | 国产欧美日韩久久久久| 91福利精品老师国产自产在线| 各类熟女熟妇激情自拍| 亚洲成a人片在线观看无码3d| 国产福利午夜波多野结衣| 中文字幕人妻少妇久久| 国产性自爱拍偷在在线播放| 成av人片一区二区三区久久| 欧美丝袜激情办公室在线观看| 日本一区二区三区不卡在线| 大肉大捧一进一出好爽视频动漫| 影视先锋av资源噜噜| 亚洲AV秘 片一区二区三区|