亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于運(yùn)動(dòng)前景效應(yīng)圖特征的人群異常行為檢測(cè)

        2018-08-20 06:16:32張俊陽(yáng)謝維信植柯霖
        信號(hào)處理 2018年3期
        關(guān)鍵詞:前景效應(yīng)檢測(cè)

        張俊陽(yáng) 謝維信 植柯霖

        (深圳大學(xué)ATR國(guó)防科技重點(diǎn)實(shí)驗(yàn)室,廣東深圳 518060)

        1 引言

        隨著社會(huì)上暴恐襲擊、人群擁擠踩踏等安全問(wèn)題的發(fā)生,智能視頻監(jiān)控技術(shù)的發(fā)展顯得愈加重要,考慮到中、高密度的人群往往更容易發(fā)生突發(fā)狀況,且現(xiàn)實(shí)中公共場(chǎng)所存在大量的視頻監(jiān)控,故針對(duì)人群的異常行為檢測(cè)越來(lái)越受到學(xué)者、管理者的重視,具有較高的研究與應(yīng)用價(jià)值,視頻中人群異常行為檢測(cè)技術(shù)已成為近年來(lái)智能視頻監(jiān)控領(lǐng)域的一個(gè)研究熱點(diǎn)。

        人群異常行為檢測(cè)首要解決的問(wèn)題即是如何界定人群中的異常行為和正常行為。異常行為的定義通常具有很大的人為主觀性,特點(diǎn)為發(fā)生概率小,且正常人能夠明確地發(fā)覺(jué),通常易對(duì)他人、公共場(chǎng)合等造成不利影響或預(yù)示著危險(xiǎn)事故的發(fā)生[1]。根據(jù)這一特點(diǎn),研究者重視的人群中異常行為有行人圍觀擁堵道路、可疑人往人群丟包裹[2]、廣場(chǎng)及室內(nèi)場(chǎng)合的恐慌奔跑、車輛闖入人行道等行為[3],此外,行人徘徊、摔倒、多人打架斗毆[4]等異常行為檢測(cè)也備受關(guān)注。

        近年來(lái),研究者已經(jīng)在人群異常行為檢測(cè)領(lǐng)域提出許多有效方法??傮w上,根據(jù)表征人群運(yùn)動(dòng)行為特征提取方法的不同,可將異常行為檢測(cè)大致分為2類:①基于低級(jí)視覺(jué)特征的算法,如文獻(xiàn)[5]通過(guò)對(duì)每一訓(xùn)練幀提取最大光流映射直方圖特征,構(gòu)建過(guò)完備字典,設(shè)定稀疏重構(gòu)閾值判斷檢測(cè)幀是否異常。可有效檢測(cè)全局異常行為,但無(wú)法定位異常,算法耗時(shí)多。文獻(xiàn)[6]提出一種基于混合核動(dòng)態(tài)紋理的視頻異常行為檢測(cè)算法,對(duì)視頻塊的表觀和時(shí)域動(dòng)態(tài)變化進(jìn)行建模,從時(shí)間上和空間上分別檢測(cè)異常行為和定位物體,但當(dāng)行人相互之間遮擋時(shí),外觀發(fā)生變化,易造成誤檢。②基于高級(jí)視覺(jué)特征的算法,如文獻(xiàn)[7]通過(guò)檢測(cè)并跟蹤視頻幀中特征點(diǎn)獲得軌跡片段,計(jì)算軌跡段直方圖作為視頻分塊高級(jí)描述子,使用LDA生成模型劃分視頻幀是否存在異常行為。算法提取了更長(zhǎng)期運(yùn)動(dòng)軌跡的運(yùn)動(dòng)信息,但特征點(diǎn)檢測(cè)性能與跟蹤穩(wěn)定性對(duì)特征描述的有效性存在很大影響。Chaker則認(rèn)為可從人群的能量變化判定視頻中異常行為,對(duì)人群能量建立馬爾科夫模型,對(duì)檢測(cè)幀推斷異常行為的發(fā)生[8],但不能用于長(zhǎng)期的推斷。

        為了充分挖掘表征人群運(yùn)動(dòng)模式的高級(jí)視覺(jué)信息,并更有效地從異常幀中定位異常運(yùn)動(dòng)的人或物體。本文提出了一種基于運(yùn)動(dòng)前景效應(yīng)圖特征的人群異常行為檢測(cè)算法,算法先通過(guò)自適應(yīng)混合高斯背景分割算法提取視頻幀序列的前景區(qū)域,將每一視頻幀在空間上分塊獲得運(yùn)動(dòng)前景塊,并計(jì)算所有運(yùn)動(dòng)前景塊給周圍塊帶來(lái)的運(yùn)動(dòng)效應(yīng),可獲得每幀相應(yīng)的效應(yīng)圖,取時(shí)間上連續(xù)多幀的空間子塊作為空時(shí)塊,提取每個(gè)空時(shí)塊的效應(yīng)圖特征。最后通過(guò)一種改進(jìn)的優(yōu)化初始聚類中心的K-means聚類算法對(duì)訓(xùn)練幀序列進(jìn)行聚類訓(xùn)練,空時(shí)塊可快速地匹配最近的聚類中心,設(shè)定固定閾值可判定其異常與否。

        2 運(yùn)動(dòng)前景提取

        分析判斷視頻中異常行為的一個(gè)行之有效的方法即是分析運(yùn)動(dòng)行人或物體的運(yùn)動(dòng)信息[4-7,9],表現(xiàn)異常行為的運(yùn)動(dòng)行人或物體往往表現(xiàn)出異常的運(yùn)動(dòng)狀態(tài)。故重點(diǎn)分析視頻中的運(yùn)動(dòng)前景目標(biāo)的運(yùn)動(dòng)狀態(tài)是科學(xué)的,且能夠排除監(jiān)控場(chǎng)景中噪聲、背景等冗余信息對(duì)所要建立的運(yùn)動(dòng)模型帶來(lái)的干擾。

        基于混合高斯的背景建模算法是計(jì)算機(jī)視覺(jué)領(lǐng)域常用的一種運(yùn)動(dòng)前景區(qū)域提取方法。該算法具有檢測(cè)效果佳、實(shí)時(shí)性較好等特點(diǎn),至今仍然具有很高的實(shí)用價(jià)值。而針對(duì)混合高斯背景建模算法中構(gòu)成每個(gè)像素的高斯數(shù)量需要人為確定的缺點(diǎn),許多自適應(yīng)混合高斯背景分割算法被提出來(lái),可以自適應(yīng)地確定混合高斯模型中的高斯數(shù)量,能夠減少場(chǎng)景中光照變化、噪聲等帶來(lái)的干擾,同時(shí)減少計(jì)算量。本文主要采用Zivkovic改進(jìn)的自適應(yīng)混合高斯背景分割算法提取視頻幀序列的運(yùn)動(dòng)前景[10]。并使用該文獻(xiàn)中的參數(shù)設(shè)置。

        圖1為采用自適應(yīng)混合高斯背景建模算法對(duì)視頻幀圖像進(jìn)行的運(yùn)動(dòng)前景提取,從所得的前景圖像可看出,即使圖片分辨率低,運(yùn)動(dòng)目標(biāo)表觀模糊,算法的前景區(qū)域分割效果也很好。

        圖1 自適應(yīng)混合高斯背景建模算法提取運(yùn)動(dòng)前景

        3 運(yùn)動(dòng)前景效應(yīng)圖特征提取

        異常行為檢測(cè)階段準(zhǔn)確性的提高要求行人或其他物體運(yùn)動(dòng)的特征描述更加具有區(qū)分性。為克服直接使用如灰度梯度、光流直方圖、動(dòng)態(tài)紋理等低級(jí)視覺(jué)特征描述所造成的噪聲高、區(qū)分度低的問(wèn)題[4- 6],本文結(jié)合了行人實(shí)際運(yùn)動(dòng)模型,深入分析表現(xiàn)異常行為的行人或物體對(duì)周圍環(huán)境所造成效應(yīng)的不同,給出表示運(yùn)動(dòng)前景對(duì)周圍環(huán)境造成效應(yīng)的特征計(jì)算方法,將人群運(yùn)動(dòng)效應(yīng)作為運(yùn)動(dòng)模型的高級(jí)特征描述,提出了一種基于運(yùn)動(dòng)前景效應(yīng)圖的特征描述。

        圖2 運(yùn)動(dòng)前景效應(yīng)圖特征提取框圖

        圖2給出了本文的運(yùn)動(dòng)前景效應(yīng)圖特征的提取框圖,算法首先由自適應(yīng)混合高斯模型對(duì)視頻幀序列做運(yùn)動(dòng)前景提取,并進(jìn)行空間上分塊得到運(yùn)動(dòng)前景塊。然后根據(jù)視頻幀的稠密光流獲得運(yùn)動(dòng)前景塊的運(yùn)動(dòng)矢量表示,最后計(jì)算所有運(yùn)動(dòng)前景塊的效應(yīng)獲得效應(yīng)圖,并以連續(xù)多幀的空間子塊作為空時(shí)塊的形式提取空時(shí)塊的效應(yīng)圖特征。

        3.1 運(yùn)動(dòng)前景塊提取

        首先將自適應(yīng)混合高斯模型提取的前景圖在空間上分割成W×L個(gè)圖像塊,每個(gè)圖像塊尺度大小為Npixel×Npixel,由于重點(diǎn)在于分析運(yùn)動(dòng)行人或物體的各部分運(yùn)動(dòng)的效應(yīng),如人的手部揮動(dòng)效應(yīng)影響。故N的取定準(zhǔn)則為:?jiǎn)蝹€(gè)前景塊可表示為運(yùn)動(dòng)前景目標(biāo)的某一部分。其次,對(duì)圖像塊進(jìn)行預(yù)處理,這是由于自適應(yīng)混合高斯背景提取可能存在零星的前景點(diǎn),這些前景點(diǎn)可能是噪聲、背景細(xì)微變動(dòng)或者是運(yùn)動(dòng)物體運(yùn)動(dòng)幅度較小造成的,無(wú)法明顯地表示一個(gè)物體塊的運(yùn)動(dòng)行為,特點(diǎn)是前景點(diǎn)在相應(yīng)塊內(nèi)的數(shù)量占比小,其會(huì)對(duì)后續(xù)的效應(yīng)圖特征的計(jì)算產(chǎn)生干擾,故只有圖像塊內(nèi)的前景點(diǎn)數(shù)量達(dá)到一定比例才能作為運(yùn)動(dòng)前景塊。對(duì)分割出的每個(gè)圖像分塊做如下處理。

        假設(shè)Bj(1≤J≤W×L)表示第j個(gè)圖像分塊,bj為其塊內(nèi)前景點(diǎn)數(shù)量,則只有滿足公式(1)才能作為運(yùn)動(dòng)前景塊保留,否則該分塊作為噪聲去除。

        (1)

        其中,Gi(1≤i≤S)表示圖像塊Bj在滿足條件時(shí)可作為第i個(gè)運(yùn)動(dòng)前景塊,λ為前景點(diǎn)比例閾值,取值可在0.1~0.4。

        圖3中左圖為出現(xiàn)噪聲點(diǎn)的前景圖像,噪聲干擾主要產(chǎn)生于圖像的獲取和傳輸過(guò)程,由于存在的噪聲影響,造成某些背景像素點(diǎn)在時(shí)間序列中變化較大,短時(shí)間內(nèi)形成了一個(gè)新的高斯分布,自適應(yīng)混合高斯背景模型將其誤判為前景點(diǎn),因而前景圖中存在孤立前景點(diǎn)。由于孤立點(diǎn)呈現(xiàn)數(shù)量少、隨機(jī)分布的特點(diǎn),圖1中未出現(xiàn)噪聲點(diǎn),圖3左圖則表示了噪聲點(diǎn)出現(xiàn)的情形。

        圖3中右圖為使用公式(1)對(duì)前景圖像作預(yù)處理效果圖,通過(guò)預(yù)處理結(jié)果可以看出,將塊內(nèi)前景點(diǎn)占比小的圖像塊作為背景去除可以有效地去除零星的前景點(diǎn),使所提取的運(yùn)動(dòng)前景塊可以更有效地表示真實(shí)的運(yùn)動(dòng)物體。

        圖3 前景圖像預(yù)處理

        3.2 運(yùn)動(dòng)前景塊的運(yùn)動(dòng)表示

        運(yùn)動(dòng)前景塊可表示為運(yùn)動(dòng)目標(biāo)如行人或小車等目標(biāo)的一部分實(shí)體,通過(guò)對(duì)前景塊內(nèi)像素點(diǎn)的光流信息可描述前景塊的運(yùn)動(dòng)狀態(tài)。文中先通過(guò)文獻(xiàn)[11]所提出的稠密光流算法計(jì)算原始圖像序列中每一幀每一像素點(diǎn)的光流矢量。為不失一般性,假設(shè){G1,G2,...,GS}為所提取的運(yùn)動(dòng)前景塊,通過(guò)取塊內(nèi)所有像素點(diǎn)光流矢量的平均作為當(dāng)前塊的光流矢量。

        (2)

        3.3 運(yùn)動(dòng)前景效應(yīng)圖特征計(jì)算

        人群中單個(gè)行人運(yùn)動(dòng)方向容易受到很多影響因素的影響,例如道路上行駛的車輛、周圍行人和其他障礙物。這些周圍因素給行人帶來(lái)的運(yùn)動(dòng)影響有效地被應(yīng)用于人群運(yùn)動(dòng)模型建立[12-14]。文獻(xiàn)[14]研究了物體塊間相互影響的作用規(guī)律,但并沒(méi)有考慮物體塊對(duì)自身位置的影響。本文則從另一角度,將行人或其他運(yùn)動(dòng)目標(biāo)給周圍空間造成的影響稱為運(yùn)動(dòng)效應(yīng),考慮周圍空間分塊受到運(yùn)動(dòng)前景塊的效應(yīng)主要取決于運(yùn)動(dòng)前景塊的運(yùn)動(dòng)方向、運(yùn)動(dòng)速度和距離。

        (3)

        圖4 前景塊的運(yùn)動(dòng)模型圖

        故可定義運(yùn)動(dòng)前景塊Gi對(duì)空間塊Bj的效應(yīng)權(quán)值為:

        (4)

        空間塊Bj受到多個(gè)運(yùn)動(dòng)方向各不同的前景塊帶來(lái)的影響效應(yīng),需依據(jù)不同的運(yùn)動(dòng)方向?qū)η熬皦K的效應(yīng)做統(tǒng)計(jì),可以使提取的特征具有更高的區(qū)分度,為了計(jì)算效率,對(duì)運(yùn)動(dòng)前景塊的運(yùn)動(dòng)方向作如下量化處理。

        (5)

        其中,k∈{1,2,3,...,p},p為量化方向區(qū)間總數(shù)。

        按照運(yùn)動(dòng)前景塊光流的量化方向?qū)η熬皦K給空間塊Bj產(chǎn)生的效應(yīng)作統(tǒng)計(jì)如下。

        (6)

        其中,ki表示第i個(gè)運(yùn)動(dòng)前景塊光流的量化方向索引值。

        在計(jì)算出所有空間塊Bi的運(yùn)動(dòng)前景效應(yīng)權(quán)值后,可構(gòu)建視頻序列中一幀圖像的運(yùn)動(dòng)前景效應(yīng)圖,運(yùn)動(dòng)前景效應(yīng)圖的每一空間塊均可由p維向量表示。為了在更長(zhǎng)時(shí)間統(tǒng)計(jì)運(yùn)動(dòng)前景效應(yīng),使所提取特征具有更高區(qū)分性,取連續(xù)t幀的空間塊作為一個(gè)空時(shí)分塊,疊加t幀空間塊的特征向量作為空時(shí)塊的特征描述。

        圖5表示運(yùn)動(dòng)前景效應(yīng)圖特征的提取過(guò)程,相較于直接利用光流、表觀等低級(jí)特征描述,表征運(yùn)動(dòng)目標(biāo)空間上和時(shí)間上的運(yùn)動(dòng)效應(yīng)的特征描述具有更高級(jí)的視覺(jué)特性。

        4 改進(jìn)的優(yōu)化初始聚類中心K均值聚類算法

        K均值聚類算法是一種可以將大量數(shù)據(jù)劃分類別的簡(jiǎn)單有效算法,應(yīng)用較為廣泛。這種聚類算法存在著聚類中心數(shù)量需人為確定、不同的初始質(zhì)心可導(dǎo)致不同聚類結(jié)果等缺點(diǎn),其中,初始質(zhì)心的選擇很大程度上影響算法的聚類性能,目前仍未有既保證全局最優(yōu)又聚類結(jié)果最好的解決方法[15]。

        針對(duì)初始聚類中心優(yōu)化問(wèn)題,研究人員提出了很多改進(jìn)方法。K-means++為戴維亞瑟等人于2007年提出的優(yōu)化初始聚類中心的K均值聚類算法[16],其主要改進(jìn)思想為:初始選定的聚類中心之間的距離應(yīng)該保持盡可能遠(yuǎn)的距離,即選定本質(zhì)上類別差異性大的初始聚類中心點(diǎn)。同樣依據(jù)該思想的改進(jìn)算法有最近鄰選擇法[17]、依據(jù)樣本密集性選擇法[18]。

        為了獲得固定的初始聚類中心,且算法具有較好的聚類效果,對(duì)文獻(xiàn)[19]的最大距離初始化方法作出改進(jìn)。首先計(jì)算樣本集中所有樣本點(diǎn)相互之間的距離,從中選取距離最大的兩個(gè)樣本點(diǎn)作為聚類中心集合,取離集合最遠(yuǎn)的點(diǎn)加入集合作為集合的更新,并以此類推,直至集合中聚類中心數(shù)量達(dá)到k個(gè)。

        4.1 算法步驟

        改進(jìn)的最大距離初始化聚類中心算法的執(zhí)行流程如下所示:

        輸入:數(shù)據(jù)集X={x1,x2,...,xn},xi∈Rd,聚類中心數(shù)k。

        輸出:k個(gè)初始聚類中心。

        1)初始化聚類中心集合C=?;

        圖5 運(yùn)動(dòng)前景效應(yīng)圖特征提取過(guò)程

        2)計(jì)算數(shù)據(jù)集中任意兩個(gè)樣本點(diǎn)之間的歐式距離,記xi,xj為距離最大的兩個(gè)樣本點(diǎn),更新C={xi,xj};

        3)記集合U=X-C,計(jì)算集合U中所有樣本點(diǎn)與集合C的距離,距離公式為D(xp,C)=minD(xp,xl),xp∈U,xl∈C;

        5)重復(fù)步驟3)、4),直至集合C元素?cái)?shù)量達(dá)到k個(gè)。

        4.2 聚類結(jié)果評(píng)估

        為驗(yàn)證改進(jìn)的優(yōu)化初始聚類中心K均值聚類算法的有效性,將算法與經(jīng)典K均值算法、K-means++算法做比較。實(shí)驗(yàn)平臺(tái)為MATLAB2013。使用UCI上常用的Iris、Wine、Seeds、User knowledge model (UKM)共4組數(shù)據(jù)集作為實(shí)驗(yàn)數(shù)據(jù)集,表1為數(shù)據(jù)集的屬性。

        表1 測(cè)試數(shù)據(jù)集屬性

        由于K-means算法、K-means++算法所選取的初始聚類中心不是固定的,故對(duì)其取20次運(yùn)行結(jié)果作為聚類效果衡量,使用誤差平方和、聚類準(zhǔn)確率作為聚類結(jié)果評(píng)估。

        表2 聚類準(zhǔn)確率結(jié)果

        表3 誤差平方和結(jié)果

        表2及表3為實(shí)驗(yàn)結(jié)果,與前兩種算法比較,文中改進(jìn)的算法在準(zhǔn)確率和誤差平方上有一定的改善,且能夠獲得固定的初始聚類中心,在應(yīng)用于異常行為建模時(shí)避免了因?yàn)槌跏季垲愔行牟还潭▽?duì)聚類效果的干擾。

        5 異常行為檢測(cè)的算法框架

        圖6 算法整體框架

        5.1 運(yùn)動(dòng)前景效應(yīng)圖特征提取

        首先使用文獻(xiàn)[10]提取視頻序列圖像的運(yùn)動(dòng)前景區(qū)域,將圖像切分為W×L個(gè)空間塊,結(jié)合預(yù)處理的前景圖像可提取運(yùn)動(dòng)前景塊,運(yùn)動(dòng)前景塊被用于計(jì)算每個(gè)空間塊的運(yùn)動(dòng)效應(yīng)權(quán)值特征向量,將時(shí)間上連續(xù)多幀的空間塊特征累加形成運(yùn)動(dòng)前景效應(yīng)圖特征。

        5.2 針對(duì)改進(jìn)的K-means訓(xùn)練及分類

        K均值聚類算法為常用的數(shù)據(jù)挖掘算法,可對(duì)大量數(shù)據(jù)進(jìn)行聚類,文中針對(duì)其隨機(jī)性初始化聚類中心的缺點(diǎn)作出改進(jìn),由于圖像尺度在視頻幀中不同位置時(shí)表現(xiàn)不一致,故對(duì)于不同位置的空時(shí)塊均采用一個(gè)K-means模型做聚類訓(xùn)練,共有W×L個(gè)K-means聚類模型。

        (7)

        通過(guò)設(shè)定閾值Tε判斷ε(i,j)是否為離群點(diǎn),如果ε(i,j)>Tε,則可將該空時(shí)塊標(biāo)記為異常,可實(shí)現(xiàn)對(duì)視頻中異常行為的檢測(cè)和定位。

        6 實(shí)驗(yàn)與分析

        實(shí)驗(yàn)使用Intel(R) Core(TM) i7處理器、8.00 GB內(nèi)存臺(tái)式電腦,使用C++、Matlab編程實(shí)現(xiàn)。實(shí)驗(yàn)采用由文獻(xiàn)[20]于2010年提出的UCSD異常檢測(cè)視頻數(shù)據(jù)集,為現(xiàn)階段認(rèn)可度較高的公開(kāi)數(shù)據(jù)集。

        6.1 實(shí)驗(yàn)參數(shù)設(shè)定

        UCSD視頻數(shù)據(jù)集包含2個(gè)不同自然場(chǎng)景的視頻集,分別為Ped1和Ped2,其中定義了許多異常行為對(duì)象,如:滑輪者、貨車、坐輪椅者、巡邏車、騎自行車者。Ped1的圖像分辨率為238 pixel×158 pixel,包含34段訓(xùn)練樣本和36段測(cè)試樣本;Ped2的圖像分辨率為360 pixel×240 pixel,包含16段訓(xùn)練樣本和12段測(cè)試樣本。所有測(cè)試樣本均給出標(biāo)出異常行為對(duì)象的基準(zhǔn)幀。

        文中運(yùn)動(dòng)前景塊的大小表示的是運(yùn)動(dòng)行人或物體的一部分,故空間分塊需結(jié)合圖像中行人表觀分辨率而定,將Ped1空間分塊大小設(shè)為8 pixel×8 pixel,Ped2空間分塊大小設(shè)為12 pixel×12 pixel,由于時(shí)間分塊目的在于獲取短時(shí)內(nèi)的運(yùn)動(dòng)行為表示,則可設(shè)定t=4。前景點(diǎn)比例閾值根據(jù)實(shí)際情況可設(shè)定λ=0.1。運(yùn)動(dòng)前景塊影響視野范圍設(shè)為[-π,π],距離范圍隨著運(yùn)動(dòng)幅值而變化,故設(shè)定δd=‖gi‖×n×n,光流量化方向p依據(jù)實(shí)驗(yàn)效果設(shè)定為8,改進(jìn)的K均值聚類類數(shù)設(shè)為5,足夠表征人群的正常行為。

        (3)標(biāo)準(zhǔn)化采集:解析識(shí)別原始流量,實(shí)現(xiàn)xDR數(shù)據(jù)合成、統(tǒng)計(jì)分析、流控封堵、還原等功能,同時(shí)具備智能鏡像能力,可基于應(yīng)用層信息(如應(yīng)用特征碼、關(guān)鍵字內(nèi)容等)的規(guī)則復(fù)制流量提供給上層應(yīng)用。

        6.2 異常行為檢測(cè)算法準(zhǔn)確率評(píng)估

        提取運(yùn)動(dòng)前景圖的視頻理論上更有利于異常行為的檢測(cè),故為了驗(yàn)證所提出算法利用前景圖的有效性與整體檢測(cè)方案的準(zhǔn)確性。從兩方面進(jìn)行實(shí)驗(yàn)比較,一為與基于前景信息的方法之間的實(shí)驗(yàn)比較,另一方面為與現(xiàn)有其他檢測(cè)方法之間的實(shí)驗(yàn)比較。

        6.2.1基于前景信息的檢測(cè)算法實(shí)驗(yàn)比較

        將所提出算法(簡(jiǎn)稱為Ours)與其他兩種基于前景信息的異常行為檢測(cè)算法做比較,分別為基于區(qū)域的軌跡分析與路徑預(yù)測(cè)[21](簡(jiǎn)稱為Region-Based)、空時(shí)卷積神經(jīng)網(wǎng)絡(luò)[22](簡(jiǎn)稱為ST-CNN)。前者重點(diǎn)分析前景存在的區(qū)域,而后者間接利用運(yùn)動(dòng)前景信息,提取運(yùn)動(dòng)信息顯著的空時(shí)塊作為重點(diǎn)分析對(duì)象。此外,為分析改進(jìn)的K均值聚類在所提出算法中的作用,將所提出的運(yùn)動(dòng)前景效應(yīng)圖特征和經(jīng)典K均值聚類結(jié)合的算法(簡(jiǎn)稱為MEM-kmeans)進(jìn)行比較。

        圖7為Ours算法與其他幾種基于前景的檢測(cè)算法之間的ROC曲線比較,在數(shù)據(jù)集Ped1上,Region-Based具有最好的ROC曲線,其他三種算法基本較為接近;在數(shù)據(jù)集Ped2上,Ours算法與MEM-Kmeans表現(xiàn)相當(dāng),并比其他兩種方法好。

        圖7 UCSD數(shù)據(jù)集上基于前景的檢測(cè)算法的ROC曲線比較

        表4和表5分別為通過(guò)AUC(Area Under Curve)、EER(Equal Error Rate) 這2個(gè)重要的量化評(píng)估指標(biāo)的評(píng)估結(jié)果。評(píng)估實(shí)驗(yàn)為幀級(jí)(flame-level)的檢測(cè)評(píng)估。

        表4 UCSD數(shù)據(jù)集上基于前景的檢測(cè)算法的AUC指標(biāo)對(duì)比

        由表4可得在場(chǎng)景Ped1下,Region-Based的AUC指標(biāo)值比Ours算法高出1.27個(gè)百分點(diǎn),Ours算法與ST-CNN的AUC指標(biāo)值則基本相等;在場(chǎng)景Ped2下,Ours的AUC最佳。而無(wú)論P(yáng)ed1還是Ped2,Ours的AUC指標(biāo)值與MEM-Kmeans方法的AUC值最為接近。

        表5 UCSD數(shù)據(jù)集上基于前景的檢測(cè)算法的EER指標(biāo)對(duì)比

        表5中在場(chǎng)景Ped1下,Ours算法低于Region-Based方法1.51個(gè)百分點(diǎn),為19.52%,但要優(yōu)于ST-CNN的20.37%;在場(chǎng)景Ped2下,Ours算法比Region-Based提高了4.07%。此外,總體上,Ours算法只比MEM-Kmeans提高了0.8%的指標(biāo)值。

        故整體上看,Ours算法取得最佳的準(zhǔn)確率。Region-Based在Ped1具有最佳的表現(xiàn),其對(duì)幀間前景信息進(jìn)行了較為深入的軌跡分析。Ped2視頻集具有更高的分辨率,Ours算法則可對(duì)運(yùn)動(dòng)前景塊建立更為有效的運(yùn)動(dòng)模型。無(wú)論P(yáng)ed1數(shù)據(jù)集還是Ped2數(shù)據(jù)集,MEM-Kmeans與整體Ours算法表現(xiàn)均十分接近,表明了異常行為檢測(cè)有效性的提高更多的是特征提取的改進(jìn),而改進(jìn)的K均值聚類則是為了避免K均值聚類中心不固定導(dǎo)致聚類模型不穩(wěn)定的缺點(diǎn)。

        6.2.2其他檢測(cè)算法實(shí)驗(yàn)比較

        為驗(yàn)證所提出算法(簡(jiǎn)稱為Ours) 的準(zhǔn)確性,將Ours算法與現(xiàn)有的其他幾種算法作比較,這些檢測(cè)方案并無(wú)利用前景信息,分別為:社會(huì)力模型[12](簡(jiǎn)稱SF)、運(yùn)動(dòng)影響圖[14](簡(jiǎn)稱Dong-Gyu)、局部光流直方圖[23](簡(jiǎn)稱SL-HOF)。其中局部光流直方圖為Siqi Wang 于2016年提出的算法。

        圖8為所提出算法和其他3種對(duì)比算法在Ped1和Ped2上的ROC曲線對(duì)比。Ours算法具有最佳的ROC曲線。

        圖8 UCSD數(shù)據(jù)集不同算法的ROC曲線比較

        算法SFDong-GyuSL-HOFOursPed174.46%80.22%79.94%84.66%Ped268.49%90.87%89.52%93.24%平均71.47%85.54%84.73%88.95%

        表6為本文算法及其他對(duì)比算法在UCSD數(shù)據(jù)集上的AUC指標(biāo)值對(duì)比。在數(shù)據(jù)集Ped1上,本文的AUC為84.66%,比Dong-Gyu提高了4.44%,與SL-HOF相比,則提升了4.72%;在數(shù)據(jù)集Ped2上,Ours比Dong-Gyu高了2.37%,與SL-HOF相比,也有較高的提升。這得益于重點(diǎn)分析前景目標(biāo)的運(yùn)動(dòng)模式,而濾除背景冗余信息的影響。

        表7 UCSD數(shù)據(jù)集上不同算法的EER指標(biāo)對(duì)比

        表7為本文算法與其他現(xiàn)有幾種算法在數(shù)據(jù)集UCSD上的EER指標(biāo)值對(duì)比。對(duì)于各種算法在Ped1上的EER指標(biāo)值,相較于Dong-Gyu和SL-HOF,Ours分別提升了3.5%和6.74%;而在Ped2上,Ours為11.48%,比Dong-Gyu提升了2.08%,與SL-HOF相比,也有3.99%的提升。

        圖9為文中算法對(duì)測(cè)試視頻序列中異常行為對(duì)象的定位效果圖,由于重點(diǎn)針對(duì)稀密不同的人群正常運(yùn)動(dòng)視頻序列做特征提取及聚類訓(xùn)練,圖(e)與(f)表明人數(shù)稀疏、密集出現(xiàn)的異常行為對(duì)象均可進(jìn)行有效地檢測(cè)。

        圖9 測(cè)試序列圖像出現(xiàn)的異常行為對(duì)象的定位

        7 結(jié)論

        本文提出了一種基于運(yùn)動(dòng)前景效應(yīng)圖特征的人群異常行為檢測(cè)算法,通過(guò)自適應(yīng)混合高斯背景建模方法得到視頻序列的前景圖像,并通過(guò)塊內(nèi)前景點(diǎn)篩選的預(yù)處理方法分割得前景圖像塊,計(jì)算運(yùn)動(dòng)前景的效應(yīng)圖,并以空時(shí)塊為單位提取運(yùn)動(dòng)前景效應(yīng)圖特征,以一種改進(jìn)的優(yōu)化初始聚類中心的K均值聚類算法判定待檢測(cè)空時(shí)塊的特征表示是否為離群點(diǎn)。

        通過(guò)與其他算法在公認(rèn)UCSD數(shù)據(jù)集上的實(shí)驗(yàn)比對(duì),本文算法在AUC和EER指標(biāo)上有一定的提高,并且可以定位異常行為的位置。

        [1] 吳新宇, 郭會(huì)文, 李楠楠,等.基于視頻的人群異常事件檢測(cè)綜述[J]. 電子測(cè)量與儀器學(xué)報(bào), 2014, 28(6):575-584.

        Wu Xinyu, Guo Huiwen, Li Nannan, et al. Survey on the video-based abnormal event detection in crowd scenes[J]. Journal of Electronic Measurement and Instrumentation,2014,28(6):575-584.(in Chinese)

        [2] Rabiee H, Haddadnia J, Mousavi H.Crowd behavior representation: an attribute-based approach[J].SpringerPlus,2016,5(1):1179-1195.

        [3] Popoola O P, Wang K. Video-Based Abnormal Human Behavior Recognition—A Review[J]. IEEE Transactions on Systems Man & Cybernetics Part C, 2012, 42(6):865- 878.

        [4] Mohammadi S, Kiani H, Perina A, et al. Violence detection in crowded scenes using substantial derivative[C]∥IEEE International Conference on Advanced Video and Signal Based Surveillance, 2015:1- 6.

        [5] Li A, Miao Z, Cen Y, et al. Abnormal event detection based on sparse reconstruction in crowded scenes[C]∥IEEE International Conference on Acoustics, Speech and Signal Processing, 2016:1786-1790.

        [6] Duan S, Wang X, Yu X. Crowded abnormal detection based on mixture of kernel dynamic texture[C]∥International Conference on Audio, Language and Image Processing,2015:931-936.

        [7] Mousavi H, Mohammadi S, Perina A, et al. Analyzing Tracklets for the Detection of Abnormal Crowd Behavior[C]∥IEEE Winter Conference on Applications of Computer Vision,2015:148-155.

        [8] Li Z, Chen L, Ren Z, et al. A pattern recognition for group abnormal behaviors based on Markov Random Fields energy[C]∥IEEE International Conference on Cognitive Informatics & Cognitive Computing, 2014:526-528.

        [9] 柳晶晶, 陶華偉, 羅琳,等.梯度直方圖和光流特征融合的視頻圖像異常行為檢測(cè)算法[J].信號(hào)處理, 2016, 32(1):1-7.

        Liu Jingjing, Tao Huawei, Luo lin, et al. Video Anomaly Detection Algorithm Combined with Histogram of Oriented Gradients and Optical Flow[J]. Journal of Signal Processing, 2016, 32(1):1-7. (in Chinese)

        [10] Zivkovic Z. Improved Adaptive Gaussian Mixture Model for Background Subtraction[C]∥International Conference on Pattern Recognition, 2004:28-31.

        [11] Farneb?ck G. Two-Frame Motion Estimation Based on Polynomial Expansion[M]. Image Analysis. Springer Berlin Heidelberg, 2003:363-370.

        [12] Mehran R, Oyama A, Shah M. Abnormal crowd behavior detection using social force model[C]∥IEEE Conference on Computer Vision and Pattern Recognition, 2009:935-942.

        [13] Chaker R, Junejo I N, Aghbari Z A. Crowd modeling using social networks[C]∥IEEE International Conference on Image Processing, 2015:1280-1284.

        [14] Lee D G, Suk H I, Park S K, et al. Motion Influence Map for Unusual Human Activity Detection and Localization in Crowded Scenes[J]. IEEE Transactions on Circuits & Systems for Video Technology, 2015, 25(10):1612-1623.

        [15] Choudhary A, Sharma P, Singh M. Improving K-means through better initialization and normalization[C]∥2016 International Conference on Advances in Computing,Communications and Informatics (ICACCI), Jaipur, 2016: 2415-2419.

        [16] Arthur D, Vassilvitskii S. k-means++: the advantages of careful seeding[C]∥Eighteenth Acm-Siam Symposium on Discrete Algorithms Society for Industrial and Applied Mathematics, 2007:1027-1035.

        [17] Kettani O, Tadili B, Ramdani F. A Deterministic K-means Algorithm based on Nearest Neighbor Search[J]. International Journal of Computer Applications, 2013, 63(15):33-37.

        [18] Xiong C, Hua Z, Lv K, et al. An Improved K-means Text Clustering Algorithm by Optimizing Initial Cluster Centers[C]∥2016 7th International Conference on Cloud Computing and BigData (CCBD), Macau, China, 2016:265-268.

        [19] Rajaraman A, Ullman J D. Mining of massive Datasets[M]. 2nd ed. Cambridge University Press, 2014:252-254.

        [20] Mahadevan V, Li W, Bhalodia V, et al. Anomaly detection in crowded scenes[C]∥Computer Vision and Pattern Recognition, 2010:1975-1981.

        [21] Zhang T, Wiliem A, Lovell B C. Region-Based Anomaly Localisation in Crowded Scenes via Trajectory Analysis and Path Prediction[C]∥International Conference on Digital Image Computing: Techniques and Applications. IEEE, 2013:1-7.

        [22] Zhou S, Shen W, Zeng D, et al.Spatial-temporal Convolutional Neural Networks for Anomaly Detection and Localization in Crowded Scenes[J]. Signal Processing Image Communication, 2016, 47:358-368.

        [23] Wang S, Zhu E, Yin J, et al. Anomaly detection in crowed scenes by SL-HOF descriptor and foreground classification[C]∥ 2016 23rd International Conference on Pattern Recognition (ICPR), Cancun, 2016:3398-3403.

        猜你喜歡
        前景效應(yīng)檢測(cè)
        鈾對(duì)大型溞的急性毒性效應(yīng)
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        我國(guó)旅游房地產(chǎn)開(kāi)發(fā)前景的探討
        法德軸心的重啟及前景
        懶馬效應(yīng)
        離岸央票:需求與前景
        應(yīng)變效應(yīng)及其應(yīng)用
        量子糾纏的來(lái)歷及應(yīng)用前景
        太空探索(2016年10期)2016-07-10 12:07:01
        亚洲国产精品久久久久久久| 免费人成视频网站在在线| 成年免费a级毛片免费看无码| 亚洲男人的天堂网站| 亚洲女同精品一区二区久久| 激情视频国产在线观看| 国产在线一区二区三区乱码| 99精品国产一区二区三区| 久久国产偷| 在线观看人成网站深夜免费| 国产精品国产高清国产专区| 三年在线观看免费大全下载| 无码成人片一区二区三区| 日日麻批视频免费播放器| 狠狠cao日日橹夜夜十橹| 熟妇高潮一区二区三区| 久久99热精品免费观看欧美| 国产精品白浆视频一区| 四虎成人精品国产一区a| 国产视频免费一区二区| 内射人妻无套中出无码| 欧美丰满大屁股ass| 久久久久久AV无码成人| 久久日韩精品一区二区| 亚洲av无码精品蜜桃| a在线免费| 亚洲精品中文字幕码专区| 日本一本免费一二区| 波多野结衣中文字幕久久| 91免费国产高清在线| 一区二区三区四区在线观看日本 | 色欲av蜜桃一区二区三| 久久天天爽夜夜摸| 午夜宅男成人影院香蕉狠狠爱| 婷婷四虎东京热无码群交双飞视频| 亚洲中文字幕无码mv| 国产极品美女到高潮视频| 日本在线一区二区三区视频观看 | 久久久久无码国产精品不卡| 日本一区二区三区资源视频| 国产极品裸体av在线激情网|