亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        周界視頻監(jiān)控中人員翻越行為檢測算法

        2016-12-23 02:07:18張?zhí)?/span>張為劉艷艷
        關(guān)鍵詞:前景特征檢測

        張?zhí)?張為,劉艷艷

        (天津大學(xué)電子信息工程學(xué)院,300072,天津)

        ?

        周界視頻監(jiān)控中人員翻越行為檢測算法

        張?zhí)?張為,劉艷艷

        (天津大學(xué)電子信息工程學(xué)院,300072,天津)

        針對周界視頻監(jiān)控應(yīng)用環(huán)境特殊的問題,提出了一種人員翻越行為的檢測方法。該方法采用“目標(biāo)檢測-人員跟蹤-軌跡分析”的流程。在算法的人員跟蹤過程中,將混合高斯模型得到的前景區(qū)域與KLT光流法得到的特征點(diǎn)運(yùn)動信息結(jié)合起來,提出了一種新型跟蹤算法。該算法僅使用圖像的灰度信息作為輸入,一定程度上能夠適應(yīng)目標(biāo)形變及遮擋,并具有很強(qiáng)的魯棒性和實(shí)時性;在算法的軌跡分析過程中,結(jié)合墻體位置信息與先驗(yàn)知識設(shè)計(jì)了一種新的軌跡分析的方法,不需要通過在線學(xué)習(xí)可直接對軌跡進(jìn)行分析。實(shí)驗(yàn)結(jié)果表明,該算法在測試視頻集上檢測準(zhǔn)確率超過93%,與現(xiàn)有方法相比,能更好地適應(yīng)實(shí)際應(yīng)用中復(fù)雜的環(huán)境條件。

        視頻監(jiān)控;異常檢測;跟蹤;軌跡分析

        智能視頻監(jiān)控是計(jì)算機(jī)視覺領(lǐng)域中的重點(diǎn)研究課題之一,它以物體檢測、識別以及跟蹤為基礎(chǔ),對視頻中對象的行為進(jìn)行分析和描述[1-2]。目前,在學(xué)校、銀行、商店、車站、港口等一些重要的公共場所普遍架設(shè)了大量監(jiān)控?cái)z像機(jī),為智能視頻監(jiān)控的實(shí)現(xiàn)提供了硬件條件。

        對于檢測人員翻越圍墻或護(hù)欄的行為,傳統(tǒng)的周界安防有很多種解決方案,例如紅外對射方案、微波對射方案、電子圍欄、電網(wǎng)等,但是它們都存在很多不足:防護(hù)等級較低,容易跨越或規(guī)避;不適合特殊天氣,受溫度、光照、天氣等影響,誤報(bào)率高;功耗很大;有危險(xiǎn)性;無法判斷報(bào)警是否為誤報(bào),需派遣人員實(shí)地查看。如果能利用現(xiàn)有的監(jiān)控平臺獲取視頻并采用算法對人體行為進(jìn)行分析來實(shí)現(xiàn)監(jiān)控和報(bào)警,就可以較好地解決這些問題。

        目前,國際上針對人員翻越圍墻的行為檢測算法的研究還處于起步階段?,F(xiàn)有的一系列研究[3-5]都采用行為分析的思路,先根據(jù)人體輪廓剪影計(jì)算出人體星形骨架特征,然后利用這個特征訓(xùn)練一個隱馬爾可夫模型(hidden markov model,HMM),將視頻中人體的動作分為行走、攀爬、跨越、下降4種狀態(tài)。當(dāng)攀爬、跨越、下降3種狀態(tài)連續(xù)出現(xiàn)的時候,就可以認(rèn)為發(fā)生了人員翻越圍墻的行為,但是這3篇文章考慮的模型比較理想,也只在僅有一個人的理想環(huán)境中做了測試,在實(shí)際應(yīng)用環(huán)境中還有待改善。文獻(xiàn)[6-7]將該問題歸入行為分析的領(lǐng)域,認(rèn)為可以提取相應(yīng)特征,然后用HMM或貝葉斯網(wǎng)絡(luò)對其進(jìn)行建模分析,但是這種方式同樣會面臨目標(biāo)遮擋嚴(yán)重、特征難以提取的問題。文獻(xiàn)[8]提出對運(yùn)動物體計(jì)算光流場,然后對光流場進(jìn)行建模并用分類器進(jìn)行分析,進(jìn)而檢測一些異常行為,這種全局性的特征適合分析遮擋嚴(yán)重的情況,可以進(jìn)行借鑒,但是光流場計(jì)算復(fù)雜度高,難以做到實(shí)時處理。

        實(shí)際中的人員翻越行為一般有如下特點(diǎn):全天候發(fā)生;場景較復(fù)雜,有其他人員或車輛影響;目標(biāo)人員受墻體或圍欄的遮擋嚴(yán)重,自身形變非常大,運(yùn)動沒有明顯的規(guī)律性;持續(xù)時間短,速度快。由于這些原因,設(shè)計(jì)算法時需考慮以下方面:受夜間紅外成像的限制,處理視頻的過程中只能使用圖像灰度信息;跟蹤算法需要具有魯棒性,能夠適應(yīng)目標(biāo)外觀的變化以及部分遮擋,還需要具有較高的實(shí)時性。

        根據(jù)以上分析,本文提出了一種新穎的人員翻越行為檢測算法,采用“目標(biāo)檢測-人員跟蹤-軌跡分析”的流程,針對人員由外至內(nèi)的翻越行為的檢測達(dá)到了令人滿意的效果。

        1 算法概述

        算法分為目標(biāo)檢測、人員跟蹤、軌跡分析3個部分。首先手工畫線標(biāo)注墻體的位置;接著,根據(jù)墻體位置,對獲取的視頻圖片進(jìn)行裁剪和縮放以減小算法的計(jì)算量;然后,對縮放之后的圖片序列使用混合高斯法進(jìn)行背景建模[9]、形態(tài)學(xué)濾波、陰影去除,這就得到了圖像中的運(yùn)動前景區(qū)域。

        隨后使用前景塊外接矩形長與寬、面積、形狀復(fù)雜度等信息進(jìn)行了粗略的分類,淘汰掉一些過大、過小或形狀特殊的前景塊,然后計(jì)算剩余團(tuán)塊的外接矩形。對這些矩形進(jìn)行位置判斷,當(dāng)其與標(biāo)注出的墻體位置滿足一定關(guān)系的時候進(jìn)行頭部檢測,將檢測出頭部的目標(biāo)交給跟蹤部分,使用跟蹤算法對其進(jìn)行跟蹤并記錄他的運(yùn)動軌跡,接著對跟蹤軌跡進(jìn)行分析處理,判斷這一軌跡是否近似于翻越人員的軌跡。如果是,就可以輸出結(jié)果并進(jìn)行報(bào)警。

        2 算法的具體設(shè)計(jì)

        本算法的主要工作集中在3個部分:①訓(xùn)練了專用的分類器,用于檢測翻越人員的頭部;②設(shè)計(jì)了一種新型跟蹤算法,將混合高斯模型法得到的前景區(qū)域與KLT光流法(Kanade-Lucas-Tomasi,KLT)得到的特征點(diǎn)的運(yùn)動信息結(jié)合起來,得到了僅使用灰度圖像作為輸入、適應(yīng)目標(biāo)形變及遮擋、魯棒性和實(shí)時性強(qiáng)的跟蹤算法;③針對本問題設(shè)計(jì)了一種新的軌跡分析的方法,不需要通過在線學(xué)習(xí),直接對軌跡進(jìn)行分析。

        2.1 頭部檢測分類器的訓(xùn)練

        Adaboost算法[10]檢測速度較快,本算法中使用這種方法,能夠滿足視頻處理的實(shí)時性。

        人員在翻越圍墻時頭部姿態(tài)與正常站立行走時有一定的差別,因此筆者構(gòu)造了專用的訓(xùn)練集。正樣本共1 300張圖片,來自之前錄制的一些人員翻越圍墻的視頻,以及人員做出翻越護(hù)欄、彎腰、鞠躬等動作時頭部的圖片。負(fù)樣本是以無人的街道、汽車、樹木、圍欄、標(biāo)志牌以及人物陰影為主題的圖片。對這些圖片提取方向梯度直方圖特征,訓(xùn)練一個20階的Adaboost分類器。該分類器能較好地檢測正在翻越圍墻的人員的頭部,并且具有較高的效率。

        2.2 基于混合高斯背景法和KLT算法的跟蹤算法

        近年來,學(xué)界提出了大量優(yōu)秀的跟蹤算法[11-14],但是這些算法中,有些需要物體的顏色信息,有些對物體的形變遮擋缺乏適應(yīng)能力,還有的實(shí)時性不足,因而本文選擇了一種比較經(jīng)典的實(shí)時跟蹤算法作為基礎(chǔ),結(jié)合應(yīng)用環(huán)境對其進(jìn)行改進(jìn)。

        KLT算法[15]是一種實(shí)時性非常優(yōu)秀的特征點(diǎn)跟蹤算法。根據(jù)算法的具體應(yīng)用環(huán)境,本文對它提出了兩個方面的改進(jìn):一是提出了一種重新計(jì)算特征點(diǎn)的策略;二是得到跟蹤目標(biāo)對應(yīng)的前景區(qū)域,并將這個前景區(qū)域與KLT算法的跟蹤結(jié)果融合。

        2.2.1 基于KLT算法的特征點(diǎn)跟蹤策略 本算法通過在一定時機(jī)重新計(jì)算特征點(diǎn)來保證特征點(diǎn)在跟蹤對象圖像中梯度較大的部分均勻分布,進(jìn)而確保隨后計(jì)算的位移矢量能夠代表跟蹤對象整體的位移,同時盡可能地減小計(jì)算特征點(diǎn)帶來的計(jì)算量。

        在檢測到頭部之后,就認(rèn)為頭部所在的前景區(qū)域外接矩形中包含了一個有翻越傾向的人,將這個矩形區(qū)域放入跟蹤隊(duì)列進(jìn)行跟蹤。首先使用KLT算子檢測這個矩形中的特征點(diǎn),接下來使用運(yùn)動前景對這些特征點(diǎn)做篩選,保留落在運(yùn)動前景之上的特征點(diǎn),這就組成了需要進(jìn)行跟蹤的點(diǎn)列

        Pin={pin1,pin2,pin3,pin4,…}

        (1)

        使用LK光流法進(jìn)行跟蹤,得到跟蹤成功的點(diǎn)列

        Pout={pout1,pout2,pout3,pout4,…}

        (2)

        不需要在每一幀圖像中都使用KLT算子進(jìn)行特征點(diǎn)檢測,跟蹤得到的點(diǎn)列經(jīng)過后面步驟的選擇可以直接作為下一次跟蹤的輸入,但是隨著跟蹤的進(jìn)行,人體本來被遮擋住的部分可能會逐漸顯露出來,這些部分沒有特征點(diǎn)覆蓋。同時,在每次跟蹤中也會丟失一部分特征點(diǎn),這會造成特征點(diǎn)過少或分布不均勻,這時需要重新計(jì)算特征點(diǎn)。

        本算法構(gòu)造了兩個40×40像素大小的直方圖,通過它們之間的差來描述正在跟蹤的矩形區(qū)域中特征點(diǎn)分布的均勻程度。其中圖像梯度分布直方圖G是由正在跟蹤的矩形區(qū)域的圖像的梯度圖縮放至40×40像素得到的,特征點(diǎn)覆蓋直方圖H按以下步驟計(jì)算得到。

        步驟1 將原圖中的特征點(diǎn)按坐標(biāo)對應(yīng)關(guān)系放置在40×40像素直方圖中,使該像素點(diǎn)的灰度值為最大值,然后使用Σ=2的高斯核的高斯濾波器對該直方圖進(jìn)行濾波,得到直方圖Htemp。

        步驟2 通過Htemp計(jì)算H,即通過比例系數(shù)r使得G、H兩個直方圖所有像素之和相等

        (3)

        (4)

        由于進(jìn)行了歸一化,這時

        ∑Gij=∑Hij=∑40×40

        (5)

        步驟3 得到了直方圖G與H之后,計(jì)算直方圖G和H之間的差,這個運(yùn)算定義如下

        ‖G-H‖=∑‖Gij-Hij‖

        (6)

        (7)

        最后對結(jié)果進(jìn)行歸一化

        Rdiff=‖G-H‖/∑40×40

        (8)

        該結(jié)果可以描述跟蹤得到的矩形區(qū)域中的特征點(diǎn)分布的均勻情況。當(dāng)Rdiff>Tth時,意味著圖片中的特征點(diǎn)數(shù)過少或者分布很不均勻,這時重新計(jì)算特征點(diǎn),得到分布更加均勻的結(jié)果。

        2.2.2 跟蹤目標(biāo)對應(yīng)的前景區(qū)域的選擇 圖1給出了前景檢測的一些結(jié)果??梢钥闯?有時前景提取的結(jié)果并不準(zhǔn)確,這使前景信息的使用變得比較困難。下面將闡述如何得到可以使用的前景信息。

        圖1 前景提取中常出現(xiàn)的4種情況

        本節(jié)從前景檢測的結(jié)果中計(jì)算出跟蹤目標(biāo)對應(yīng)的前景區(qū)域外接矩形,這一工作可以分為3個步驟。

        步驟1 使用Kalman濾波器來對跟蹤目標(biāo)的位置進(jìn)行預(yù)測,得到預(yù)測矩形rk。

        步驟2 在所有前景團(tuán)塊的外接矩形中,找出與步驟1得到的預(yù)測矩形有重疊的矩形,并計(jì)算這些矩形所有“合理的”合并的結(jié)果。

        前面已經(jīng)得到前景區(qū)域的外接矩形。步驟1得到的預(yù)測矩形rk會與其中的一些外接矩形相交,如圖2所示。把與rk相交的矩形記為

        Rb={rb1,rb2,rb3,rb4,…}

        (9)

        它們表示在這一幀中可能屬于跟蹤目標(biāo)的前景矩形。本節(jié)最終要得到的跟蹤目標(biāo)對應(yīng)的前景區(qū)域的外接矩形,就是Rb中的某一個矩形或由Rb中的矩形合并得到(這里兩個矩形的合并指計(jì)算這兩個矩形的外接矩形)。將Rb中的矩形任意組合,可以得到

        Rcb={rb1,rb2,rb3,…,rb1rb2,…,rb1rb2rb3,…}

        (10)

        但是,有些矩形組合合并之后的區(qū)域會包含本沒有出現(xiàn)在該組合中的矩形,或者會將兩個距離很遠(yuǎn)的矩形合并起來而沒有包括距離它們各自都很近的另一個矩形。算法認(rèn)為這些組合是不合理的組合,它會干擾算法后續(xù)的工作,例如圖2c中rb1與rb2的組合就屬于這種情況,使用圖算法可以計(jì)算得到合理的組合[17]。

        (c)前景矩形以及前景矩形的幾種合理組合圖2 前景區(qū)域合理組合的計(jì)算

        首先構(gòu)建一個無向圖G={V,E,ω}。頂點(diǎn)V={V1,V2,…,Vn}表示Rb中的前景矩形,邊E={E1,E2,…,Em}表示這些矩形之間的距離。對每一條邊,都有一個權(quán)重系數(shù),ωij表示前景矩形Vi和Vj之間距離的大小。從一個頂點(diǎn)出發(fā),到另一個頂點(diǎn)的最短路徑可以通過Dijkstra算法求得。每一條最短路徑所經(jīng)過的頂點(diǎn)的集合,都是一種合理的矩形組合,如圖2b所示。

        將式(9)Rb中所有的矩形與由Dijkstra算法組合得到的矩形組合作為一個整體,記為

        Rrcb={rb1,rb2,rb3,…,rbirbj,…}

        (11)

        它其中的元素是Rb中的矩形,以及由Rb中的多個矩形經(jīng)過合理的合并形成的矩形。

        (αS+αN+αE)1/2

        (12)

        其中

        (13)

        (14)

        (15)

        對于Rrcb中的每個元素,按照式(12)計(jì)算si的值,并選擇其中si值最大的元素作為跟蹤目標(biāo)的前景區(qū)域,將這個元素記為rB。這就將分成幾部分的前景融合起來,解決了前景破碎的問題,并對前景干擾問題有一定的效果。

        算法借鑒了民主融合策略[18]的合并方式,但與民主決策制算法的不同之處在于,每一項(xiàng)信息的權(quán)重并不是在線更新的,而是直接由當(dāng)前幀的一些信息以及一些先驗(yàn)知識計(jì)算得到的。由于這些信息在每一幀中變化很大且缺乏規(guī)律,此方法比在線更新的策略更適合這個問題。

        定義權(quán)重函數(shù)的表示形式為

        ωz=exp(-uz‖Q‖)

        (16)

        式中:z表示參與融合的各個信息;‖Q‖表示對信息質(zhì)量的一種評價;uz是一個經(jīng)驗(yàn)系數(shù)。

        對于前景矩形中心位置cB,權(quán)重系數(shù)的形式為

        (17)

        (18)

        式中:M和N為Pout中點(diǎn)的總數(shù)和聚類結(jié)果中包含的點(diǎn)的個數(shù)。聚類中得到的點(diǎn)占總數(shù)的比例越大,位移矢量的信息質(zhì)量就越高,權(quán)重也就越大,本算法中ud=2。

        對于由Kalman濾波器預(yù)測的位置cB,權(quán)重系數(shù)的形式為

        {1-exp[-ud(1-N/M)]}

        (19)

        式中:vk為原位置中心點(diǎn)到Kalman濾波器預(yù)測位置中心點(diǎn)的位移。當(dāng)位移矢量權(quán)重較高時,由于可以比較明確地判斷物體的位移,Kalman濾波器預(yù)測結(jié)果的權(quán)重較低;否則,提高Kalman濾波器預(yù)測結(jié)果的權(quán)重,對物體的位置進(jìn)行預(yù)測,本算法中uk=2。

        最后對式(17)~式(19)計(jì)算得到的3個權(quán)重系數(shù)進(jìn)行歸一化,得到歸一化權(quán)重系數(shù)

        (20)

        其中z在B、d、k中選擇,最終得到rresult中心點(diǎn)為

        (21)

        對于跟蹤目標(biāo)對應(yīng)的前景區(qū)域rB的大小,權(quán)重系數(shù)的形式與進(jìn)行位置預(yù)測時相同

        (22)

        (23)

        本算法中取Ω=0.7。對這兩個權(quán)重進(jìn)行歸一化

        (24)

        z在B、p中選擇,最終得到的rresult大小Sresult為

        (25)

        式中:τ是一個時間常數(shù),用來表示rresult的更新速率。每隔τ時間對結(jié)果進(jìn)行更新,因?yàn)楦滤俣忍烊菀资艿角熬疤崛〉脑肼曈绊?。本算法?1 s更新2.5次,Sresult計(jì)算完成。

        至此得到了跟蹤矩形rresult的位置和大小信息,也就得到了最終的跟蹤結(jié)果。這個結(jié)果綜合了各部分的信息,解決了前景提取中融合與干擾的問題。融合過程在處理具體幀圖片時的結(jié)果如圖3所示。

        使用rresult對Pout中的特征點(diǎn)進(jìn)行篩選,去除落在rresult以外的點(diǎn),剩余點(diǎn)還能應(yīng)用在下一幀的跟蹤中。

        2.2.4 退出跟蹤的策略 本算法給出了2個退出跟蹤的條件:一是跟蹤結(jié)果rresult中包含的前景面積過小的情況;二是一次性跟蹤丟失大量點(diǎn)的情況,它們表示人物消失、嚴(yán)重遮擋或者跟蹤出現(xiàn)錯誤。

        2.3 基于先驗(yàn)知識的軌跡分析

        現(xiàn)有的軌跡分析方法大多需要通過離線或在線學(xué)習(xí)來獲取軌跡的規(guī)律,而本算法受其檢測行為及應(yīng)用環(huán)境的限制,無法獲取代表全部環(huán)境和足夠多的學(xué)習(xí)樣本,所以算法使用墻體的位置信息以及一些先驗(yàn)知識來對軌跡進(jìn)行分析。

        在跟蹤過程中,每處理一幀視頻,得到一段軌跡。在軌跡分析中,首先去除掉太短或太長的軌跡,然后對軌跡進(jìn)行平滑,接著判斷軌跡的后幾段中是否與標(biāo)注出的墻體位置的線段有交點(diǎn)。如果存在交點(diǎn),說明有可能是人員翻越圍墻形成的軌跡,計(jì)算下列特征進(jìn)行進(jìn)一步判斷。

        特征1 軌跡最高點(diǎn)在軌跡中間,即軌跡中間有一點(diǎn)在圖像中高于初始點(diǎn)和結(jié)束點(diǎn)的位置。

        特征2 對軌跡最高點(diǎn)和最低點(diǎn)取平均,軌跡中有50%以上的點(diǎn)高度高于這個平均值。

        特征3 軌跡的高度與寬度應(yīng)滿足

        (26)

        式中:l為軌跡寬度,即最左側(cè)點(diǎn)與最右側(cè)點(diǎn)水平坐標(biāo)之差的絕對值。h為軌跡高度,定義與l類似。θ為標(biāo)注出的墻體位置的線段與水平方向所成的夾角。

        特征4 軌跡初始點(diǎn)與結(jié)束點(diǎn)之間的距離D應(yīng)滿足

        (27)

        (28)

        其中h和θ的定義與上一步相同。

        如果這些特征全部滿足,就將軌跡判定為人員翻越圍墻形成的軌跡,這時停止對該目標(biāo)的跟蹤并保存當(dāng)前幀圖片,發(fā)出警報(bào)信號;否則,繼續(xù)跟蹤并記錄目標(biāo)軌跡。

        3 實(shí)驗(yàn)結(jié)果與分析

        為了驗(yàn)證算法的有效性,在天津市內(nèi)選擇了3處合適的場景,架設(shè)??稻W(wǎng)絡(luò)攝像頭及硬盤錄像機(jī),錄制了8段共含有30次翻越實(shí)驗(yàn)的視頻(其中8次為夜間拍攝),以及12段共計(jì)1 h左右的沒有出現(xiàn)翻越行為的視頻對算法進(jìn)行實(shí)測。其中A場景中除了翻越人員,有2~3人在四周活動;B場景中,有大量人員及車輛在附近過往,夜間場景還伴有車燈等光源干擾;場景C中,大量人員、車輛在柵欄附近經(jīng)過,場景中還有樹枝、線纜的抖動。實(shí)驗(yàn)視頻中不包含用來訓(xùn)練頭部檢測分類器的圖片。

        實(shí)驗(yàn)中使用的攝像頭幀率為25幀/s,場景圖片和其中標(biāo)出的墻體位置如圖4所示。算法以標(biāo)準(zhǔn)C++程序?qū)崿F(xiàn),并使用了OpenCV計(jì)算機(jī)視覺庫,機(jī)器配置為Intel處理器i5-2400@3.10 GHz,6 GB內(nèi)存臺式機(jī),未用顯卡做加速。實(shí)驗(yàn)中算法專門檢測翻入行為,即檢測從墻的外側(cè)翻入到有攝像頭的一側(cè)。

        前景區(qū)域的選擇與各個信息融合的效果如圖3所示。即使出現(xiàn)前景破碎、融合和干擾的情況,本文算法也能合理地利用前景信息,結(jié)合特征點(diǎn)的運(yùn)動信息正確地跟蹤人體的位置,而文獻(xiàn)[3-5]中的星形骨骼表示算法在這些情況下完全無法準(zhǔn)確地計(jì)算人體星形骨架特征,后面的步驟也無法進(jìn)行。實(shí)驗(yàn)結(jié)果見表1,對比實(shí)驗(yàn)見表2。

        總計(jì)30次翻越行為,算法共檢出28次,檢出率在93.3%以上,并且全部20段視頻中無任何誤報(bào)。

        注:白線框是前景團(tuán)塊的外接矩形;虛線框是點(diǎn)劃線框是rk;黑線框是rresult圖3 各個信息及融合結(jié)果

        視頻編號原始尺寸/像素縮放尺寸/像素檢出率平均耗時/ms·幀-1A960×576451×2882/2897B11920×1080492×5402/21354B21920×1080492×5402/21420B31280×720428×3604/4757B41280×720428×3604/4770B51280×720428×3607/8745B6(夜)1280×720428×3604/4757B7(夜)1280×720428×3603/41058C1?C121920×1080540×5170/01492

        表2 翻越行為檢測算法與其他方法的實(shí)驗(yàn)對比

        注:圖中的白線為標(biāo)注墻體位置的線段圖4 翻越行為檢測算法的實(shí)驗(yàn)場景

        由此可見,本文算法對翻越行為的檢測效果良好,并具有很強(qiáng)的魯棒性,對夜間場景也能正常處理。

        由表1可以看出,算法平均處理一幀圖片的時間小于15 ms,每秒可以處理65幀以上,完全滿足實(shí)時性要求。

        表2中本文算法的檢出率在現(xiàn)有的兩種方法之間,其他兩種算法的數(shù)據(jù)來自于文獻(xiàn)[3,5],但是實(shí)際上,其他兩種算法統(tǒng)計(jì)出的正確率來自于它對行走和翻越兩種行為識別結(jié)果的統(tǒng)計(jì),而本文方法只統(tǒng)計(jì)了檢測翻越行為的結(jié)果。在測試視頻中,有數(shù)百個行人以及各種樣式的車輛從圍欄附近經(jīng)過,均未發(fā)生誤報(bào)。算法將其視為非翻越行為,但未計(jì)入最后結(jié)果。本文算法測試環(huán)境非常復(fù)雜,而另兩種方法只在一個人活動的理想環(huán)境中做了簡單測試,墻體的角度非常單一,測試視頻長度也遠(yuǎn)遠(yuǎn)小于本文算法。實(shí)際上,在實(shí)際應(yīng)用場景中本文算法的應(yīng)用效果要遠(yuǎn)遠(yuǎn)好于另兩種算法。

        總的來說,對于人員翻入行為,算法具有很好的檢測效果和很強(qiáng)的魯棒性,并且算法整體的實(shí)時性非常良好,有著重要的實(shí)用價值。

        [1] HU W, TAN T, WANG L, et al. A survey on visual surveillance of object motion and behaviors [J]. IEEE Transactions on Systems, Man, and Cybernetics: Part C Applications and Reviews, 2004, 34(3): 334-352.

        [2] KIM I S, CHOI H S, YI K M, et al. Intelligent visual surveillance-a survey [J]. International Journal of Control, Automation and Systems, 2010, 8(5): 926-939.

        [3] YU E, AGGARWAL J K. Detection of fence climbing from monocular video [C]∥Proceedings of the 18th 2006 International Conference on Pattern Recognition. Piscataway, NJ, USA: IEEE, 2006: 375-378.

        [4] YU E, AGGARWAL J K. Recognizing persons climbing fences [J]. International Journal of Pattern Recognition and Artificial Intelligence, 2009, 23(7): 1309-1332.

        [5] YU E, AGGARWAL J K. Human action recognition with extremities as semantic posture representation [C]∥Proceedings of the IEEE Computer Vision and Pattern Recognition Workshops. Piscataway, NJ, USA: IEEE, 2009: 1-8.

        [6] CHENG Guangchun, WAN Yiwen, SAVDAGAR A N, et al. Advances in human action recognition: a survey [J]. ArXiv Preprint ArXiv, 2015: 1501.05964.

        [7] VISHWAKARMA S, AGRAWAL A. A survey on activity recognition and behavior understanding in video surveillance [J]. The Visual Computer, 2013, 29(10): 983-1009.

        [8] ZHANG T, YANG Z, JIA W, et al. A new method for violence detection in surveillance scenes [J]. Multimedia Tools and Applications, 2015: 1-23.

        [9] ZIVKOVIC Z. Improved adaptive Gaussian mixture model for background subtraction [C]∥Proceedings of the 17th 2004 International Conference on Pattern Recognition. Piscataway, NJ, USA: IEEE, 2004: 28-31.

        [10]VIOLA P, JONES M. Fast and robust classification using asymmetric AdaBoost and a detector cascade [J]. Advances in Neural Information Processing System, 2002, 14: 1311-1318.

        [11]KALAL Z, MIKOLAJCZYK K, MATAS J. Tracking-learning-detection [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(7): 1409-1422.

        [12]HARE S, SAFFARI A, TORR P H S. Struck: structured output tracking with kernels [C]∥Proceedings of the 2011 IEEE International Conference on Computer Vision. Piscataway, NJ, USA: IEEE, 2011: 263-270.

        [13]查宇飛, 楊源, 王錦江, 等. 利用密度描述符對應(yīng)的視覺跟蹤算法 [J]. 西安交通大學(xué)學(xué)報(bào), 2014, 48(9): 13-18. ZHA Yufei, YANG Yuan, WANG Jinjiang, et al. A visual object tracking algorithm using dense descriptors [J]. Journal of the Xi’an Jiaotong University, 2014, 48(9): 13-18.

        [14]CEHOVIN L, KRISTAN M, LEONARDIS A. Robust visual tracking using an adaptive coupled-layer visual model [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(4): 941-953.

        [15]SHI J, TOMASI C. Good features to track [C]∥Proceedings of the 1994 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Piscataway, NJ, USA: IEEE, 1994: 593-600.

        [16]CHENG Y. Mean shift, mode seeking, and clustering [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1995, 17(8): 790-799.

        [17]FOGGIA P, PERCANNELLA G, SAGGESE A, et al. Real-time tracking of single people and groups simultaneously by contextual graph-based reasoning dealing complex occlusions [C]∥Proceedings of the 2013 IEEE International Workshop on Performance Evaluation of Tracking and Surveillance. Piscataway, NJ, USA: IEEE, 2013: 29-36.

        [18]TRIESCH J, VON DER MALSBURG C. Democratic integration: self-organized integration of adaptive cues [J]. Neural computation, 2001, 13(9): 2049-2074.

        (編輯 武紅江)

        Detection Algorithm of Fence Climbing for Perimeter Video Surveillances

        ZHANG Tai,ZHANG Wei,LIU Yanyan

        (School of Electronic Information Engineering, Tianjin University, Tianjin 300072, China)

        An algorithm to detect fence climbing is proposed to meet the specific requirements of perimeter video surveillance. The algorithm bases on a process like “object detection-tracking-trajectory analysis”. The main scheme of the algorithm combines foreground areas obtained from Gaussian mixture model with displacements of feature points obtained from KLT algorithm in personnel tracking stage. In this way, the tracking algorithm just takes advantage of the image grey scale information, can adapt deformation and shade of the objects in a certain extent and has a strong robustness as well as real-time effect. A new method for the analysis of trajectory is proposed in trajectory analysis stage by using the information of wall location and other prior knowledge instead of traditional online learning algorithms. Experimental results show that the proposed algorithm is more suitable for noisy environments than other existing algorithms. A recognition rate above 93% is obtained on a test video set.

        video surveillance; anomaly detection; tracking; trajectory analysis

        2016-03-03。 作者簡介:張?zhí)?1992—),男,碩士生;張為(通信作者),男,教授。 基金項(xiàng)目:天津市科技支撐計(jì)劃重點(diǎn)資助項(xiàng)目(14ZCZDSF00020)。

        時間:2016-04-15

        10.7652/xjtuxb201606008

        TP391.4

        A

        0253-987X(2016)06-0047-07

        網(wǎng)絡(luò)出版地址:http:∥www.cnki.net/kcms/detail/61.1069.T.20160415.1612.014.html

        猜你喜歡
        前景特征檢測
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        我國旅游房地產(chǎn)開發(fā)前景的探討
        法德軸心的重啟及前景
        如何表達(dá)“特征”
        離岸央票:需求與前景
        中國外匯(2019年11期)2019-08-27 02:06:32
        不忠誠的四個特征
        抓住特征巧觀察
        量子糾纏的來歷及應(yīng)用前景
        太空探索(2016年10期)2016-07-10 12:07:01
        亚洲娇小与黑人巨大交| 亚洲国内精品一区二区在线| 亚洲一区二区av天堂| 无套内谢孕妇毛片免费看| 色 综合 欧美 亚洲 国产| 亚洲欧美成人a∨| 无码国产一区二区色欲| 丰满又紧又爽又丰满视频| 亚洲色图片区| 又污又爽又黄的网站| 亚洲大片免费| 人妻少妇中文字幕av| 国产欧美精品aaaaaa片| 亚洲一区二区三区中文字幂| 麻豆国产巨作AV剧情老师| 久久久一本精品久久久一本| 丝袜美腿一区二区国产| 另类老妇奶性生bbwbbw| 熟妇无码AV| 熟女不卡精品久久av| 欧美v国产v亚洲v日韩九九| 成人白浆超碰人人人人| 黑人巨大精品欧美在线观看| 日韩精品人妻一区二区三区蜜桃臀 | 国产av无码专区亚洲av| 乱人伦人妻中文字幕不卡| 午夜免费观看一区二区三区| 玩弄放荡人妇系列av在线网站| 亚洲综合无码一区二区| 国产精品无套粉嫩白浆在线| 久久亚洲中文字幕精品熟| 国产又色又爽又高潮免费视频麻豆| 福利网址在线观看| 在线观看日韩精品视频网站| 国产99一区二区三区四区| 男男受被攻做哭娇喘声视频| 亚洲另类激情专区小说婷婷久| 亚洲第一大av在线综合| 综合色就爱涩涩涩综合婷婷 | 亚洲天堂2017无码中文| 精品午夜一区二区三区|