亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于背景和幀間差分法的運動目標提取

        2014-04-29 06:12:42熊英
        計算機時代 2014年3期

        熊英

        摘 要: 在自動人臉識別系統(tǒng)中,人體目標的檢測是該系統(tǒng)識別人臉的前期關(guān)鍵步驟之一。為了能快速準確地檢測出運動的人體目標,提出了背景差分法和幀間差分法相結(jié)合的運動目標提取檢測方法。針對視頻中的背景因鏡頭擺動或物體的移入/移出而有所變動,給出了幾種提取背景的方法,比較各種方法后決定采用中值法快速地進行背景建模,隨后采用自適應背景更新,結(jié)合兩種差分法檢測運動目標。通過實驗驗證了本文算法的有效性。

        關(guān)鍵詞: 運動目標; 背景差分法; 幀間差分法; 背景建模

        中圖分類號:TP391 文獻標志碼:A 文章編號:1006-8228(2014)03-38-04

        0 引言

        對于人體生物特征的識別,可以說從古到今一直受到人類的關(guān)注。隨著智能監(jiān)控、人機交互技術(shù)的發(fā)展,具有視頻分析處理能力并可對運動目標實現(xiàn)檢測和跟蹤的智能化視頻監(jiān)控系統(tǒng)己成為研究的熱點和主流[1]。視頻圖像中運動目標檢測相對于靜態(tài)圖像而言稍顯復雜一些,運動目標檢測是指在視頻圖像序列中判斷是否有前景目標的運動,如果有前景目標,則對目標進行初始定位的檢測。視頻是由時間上連續(xù)的圖像序列構(gòu)成的,故對于視頻中運動目標的檢測是按照一定的周期從視頻序列中提取出一張張靜態(tài)圖像幀來實現(xiàn)檢測的,因此視頻序列圖像與靜態(tài)圖像中的目標檢測方法存在相似的地方,而不同的地方就在于運動目標時間上的連慣性[2]。針對視頻圖像的特殊性,我們常用于運動目標檢測的方法有以下幾種[3]。

        1 運動目標檢測的方法

        1.1 背景差分法

        背景差分法(Background Difference Method)是利用當前圖像與預存的背景圖像作差分,再利用閾值來檢測運動區(qū)域的一種動態(tài)目標識別技術(shù)。背景差分法的原理如圖1所示。

        [當前圖像][—] [二值化][連通性分析][目標][背景圖像][非目標][f][b][R][Y][N] [D]

        圖1 背景差分法的識別過程

        首先通過式⑴求出當前圖像f與背景圖像b的差,即

        然后根據(jù)式⑵對差分結(jié)果圖像D進行二值化,再對二值化之后的圖像R進行連通性分析,即

        當某一連通區(qū)域的面積大于一定的閾值T時,則認為檢測到目標,并認為這個連通的區(qū)域就是提取的目標[4]。

        背景差分算法簡單,相對于其他方法而言易于實現(xiàn),較適用于背景已知的情況,是最受歡迎的運動目標檢測方法之一,也是當前運動目標檢測技術(shù)中應用較為廣泛的一類方法。

        1.2 幀間差分法

        幀間差分法(Frame Difference)是選取視頻圖像序列中相鄰兩幀或多幀圖像信息作差分運算來獲得運動目標輪廓的方法,利用不同幀圖像對應位置像素點的差分運算結(jié)果進行目標檢測。其主要工作流程如圖2所示。

        [第k幀圖像][—] [二值化][連通性分析][目標][fk][fk-1][第k-1幀圖像][非目標][R][D][N][Y]

        圖2 幀間差分法運動目標的識別

        fk和fk-1分別為時刻k和時刻k-1采集到的兩幅圖像,據(jù)此可以得到差分圖像為公式⑶:

        其中,T為閾值,兩圖像間發(fā)生變化的位置的像素取值為1,兩圖像間沒有發(fā)生變化的位置像素取值為0,這樣就檢測到目標。也可以利用連續(xù)三幀甚至多幀圖像來提取運動目標,這時判斷一個像素點是否屬于運動物體的原則為公式⑷:

        在運動的檢測過程中,該方法利用時間信息,通過比較圖像中若干連續(xù)幀獲得對應像素點的灰度差值,如果均大于一定的閾值T,則可以判斷該位置存在運動的目標[4]。其優(yōu)點是計算簡單、檢測速度快,對動態(tài)環(huán)境具有很好的適應性,它可以很好地適用于多個運動目標和攝像機移動的情況。但是該類方法提取的目標不完整,所以幀間差分法通常不單獨應用在運動目標檢測中,而往往與其他的檢測算法結(jié)合使用。

        1.3 光流法

        光流法(Optical Flow)是利用相鄰兩幀中對應像素的灰度保持原理來評估二維圖像的變化[5]。簡單來說,光流是空間運動物體在觀測成像平面上的像素運動的“瞬時速度”。光流法是對運動序列圖像進行分析的一個重要方法,光流不僅包含圖像中目標的運動信息,而且包含了三維物理結(jié)構(gòu)的豐富信息,因此可用來確定目標的運動情況以及反映圖像其他信息。但是,多數(shù)光流場計算方法相當復雜,算法要對所有幀中的所有像素點來評估光流,所以計算量大,算法復雜耗時,且容易受到噪聲影響。如果沒有專門的硬件設(shè)備支持,很難實現(xiàn)視頻實時檢測,因此其應用性和實時性較差,不適合在實時的視頻監(jiān)控系統(tǒng)中使用。

        1.4 統(tǒng)計與分析的方法

        基于統(tǒng)計與分析的運動檢測方法是近幾年才發(fā)展起來的,主要有:基于經(jīng)典的統(tǒng)計模式識別方法,包括決策函數(shù)法、K近鄰分類法、支持向量機特征分析法、主因子分析法等;基于知識或者基于模型的自動目標檢測方法,包括先驗知識、SNAKE模型、單高斯模型、混合高斯模型等;基于多傳感器信息融合的自動目標檢測方法,包括嵌入約束法、證據(jù)組合法、人工神經(jīng)網(wǎng)絡法;基于專家系統(tǒng)的自動目標檢測方法等。盡管目前各種算法存在各種各樣的問題,但最終隨著相關(guān)學科及計算機硬件運算速度的提高,該類方法將表現(xiàn)出卓越的性能[4]。

        2 運動目標的分割

        2.1 背景建模

        在實際應用中,背景往往是不固定的,它會隨著光照、前景物體的移入/移出,以及攝像頭擺動等產(chǎn)生動態(tài)變化。本文研究的背景差分法是將當前幀圖像與一個不斷更新的背景模型相減,在差分圖像中提取運動目標。利用背景差分法實現(xiàn)目標檢測主要包括如下四個環(huán)節(jié):

        [背景建模][背景更新][目標檢測][后期處理]

        其中,背景建模和背景更新是背景差分法中的主要問題。背景模型建立的好壞直接影響到目標檢測結(jié)果。因此,人們提出了各種方法實現(xiàn)背景建模和背景更新。目前背景提取的算法很多,如均值法、中值法、單高斯分布模型、混合高斯分布模型、碼書算法等。雖然方法很多,但是很難找到一種在各種情況下都表現(xiàn)最好的算法。

        下面介紹以下幾種常用算法的原理[6]。

        ⑴ 均值法的原理是將運動物體比作噪聲,用累積平均的方法消除噪聲,從而可以利用有運動物體的序列圖像進行平均來得到背景圖像。用公式表示為:。其中Background表示背景圖像,N表示幀數(shù),imagei(x,y)表示第i幀序列圖像中的(x,y)像素點,通過改變x和y的值就可以獲得整幅背景圖像。

        ⑵ 中值法是一種基于排序理論的、能有效抑制噪聲的非線性信號處理技術(shù),其思想是把所有像素的灰度按從小到大的順序排列,若像素為奇數(shù)個,則將中間值作為(x,y)處的灰度值,若像素為偶數(shù)個,則取兩個中間值的平均值作為(x,y)處的灰度值。

        ⑶ 單高斯分布背景模型適用于單模態(tài)背景,它把每個像素點的顏色值分布用單個高斯分布表示,一般只能處理有微小變化與緩慢變化的簡單場景。

        ⑷ 混合高斯模型是用多個單高斯函數(shù)來描述多模態(tài)的場景背景,當復雜背景變化很大,背景像素值的變化較快,比如背景像素值為多峰分布(如微小重復運動)時,這時可以根據(jù)單模態(tài)的思想方法,用多個單模態(tài)的集合來描述復雜場景中像素點值的變化,它是背景建模較為成功的方法之一。

        ⑸ CodeBook背景模型。CodeBook算法的基本思想是得到每個像素的時間序列模型。CodeBook算法為當前圖像的每一個像素建立一個CodeBook(CB)結(jié)構(gòu),每個CodeBook結(jié)構(gòu)又由多個CodeWord(CW)組成。這種模型能很好地處理時間起伏,缺點是需要消耗大量的內(nèi)存。

        本文對均值法、中值法的性能優(yōu)劣作個比較??偟膩碚f,均值濾波法和中值濾波法都適合外部擾動比較小的特定場合,而且算法簡單有效。在本文中主要研究的是處于教室一類較簡單的內(nèi)部環(huán)境,可以直接將彩色圖像轉(zhuǎn)換成灰度圖像,然后通過灰度值的中值或者均值來進行背景建模,通過實驗可以看出中值法提取的背景效果比均值法提取的效果要理想一些(見圖3與圖4)。

        圖3 中值法提取背景

        圖4 均值法提取背景

        2.2 背景更新

        由于光照、場景變化等各種因素的影響,背景不可能在建立之后就一成不變。要使背景模型在一段時間之內(nèi)能夠適應環(huán)境的變化,就必須對初始模型不斷地進行更新。背景更新的實質(zhì)是用當前幀中發(fā)生了變化的信息去修正使用過去幀建立的模型[7]。一種常用的自適應背景更新方法采用式⑸進行。

        其中,Bn(x,y)是當前時刻經(jīng)過更新后得到的背景;Bn-1(x,y)是前一時刻建立的背景;In(x,y)是用于修正前一時刻背景的當前幀;a稱為學習速率,其值可以通過實驗確定,一般取0.9,是指用當前幀中每個位置上的像素值與原來背景中相應位置的像素值加權(quán)平均值替代原背景對應位置上的值。

        2.3 目標檢測分割

        獲得了背景圖像后就可以使用背景減除的方法進行運動目標的檢測。設(shè)當前幀圖像為I(x,y),當前的背景為B(x,y),經(jīng)過背景減除,并二值化后的結(jié)果見公式⑹。

        其中,T是判別閾值,可以通過實驗得到。本論文中提取視頻的第一幀圖像作為背景圖像,隨后再根據(jù)鏡頭的擺動來更新背景,完成新的背景建模。

        幀間差分法是通過視頻中連續(xù)兩幀圖像對應像素點的像素差值找出變化的運動區(qū)域的方法。設(shè)當前幀圖像為Ik(x,y),上一幀的圖像為Ik-1(x,y),經(jīng)過兩幀圖像相減,并二值化后的結(jié)果見公式⑺。

        如果差值大于預先設(shè)定好的閾值,則認為該點是運動目標像素點,否則就是背景像素點。

        在本文中采用背景與幀間差分法相結(jié)合,將視頻中背景差圖像和相鄰兩幀差圖像直接進行‘與操作,再進行二值化處理得到運動目標[8]。其檢測效果有所提高,特別是當背景發(fā)生變化時,得到的運動檢測圖像包含了許多目標信息,將運動目標從背景圖像中分離出來,最終得到視頻序列圖像中運動目標存在與否的標記圖像。

        算法描述:①從視頻中選取出初始背景圖像B(x,y),使其只包含固定的背景圖像;②在視頻圖像序列中選取連續(xù)的兩幀圖像,當前幀圖像Ik(x,y),前一幀圖像Ik-1(x,y);③計算當前幀與背景幀的差值R(x,y),從圖像中提取出完整的目標;④計算當前幀與前一幀的差得Rk(x,y),得到目標的變化量;⑤求背景差R(x,y)與幀間差Rk(x,y)的交集得到運動目標粗糙的運動區(qū)域圖像;⑥當物體運動,鏡頭跟進,背景圖像也相應改變,利用中值法求得變化后的背景模板Bk(x,y),重復②-⑤步得到變化的運動目標;⑦數(shù)學形態(tài)學運算使得運動區(qū)域封閉、連續(xù)、完整,并去掉背景中的噪聲;⑧用紅色矩形框?qū)⑦\動目標標記出來。

        3 實驗仿真結(jié)果

        本文實驗視頻序列為一段室內(nèi)授課視頻,首先對須處理的視頻進行幀提取,以每秒15幀的速率提取出所有圖片;然后采用中值法對前20幀進行背景建模,將背景差分法和幀間差分法相結(jié)合得到運動目標,由于背景的變動以至背景要隨時更新;最后,利用形態(tài)學膨脹原理以及開運算,提取運動目標輪廓,并且用矩形框框出來。

        接下來分別利用背景差分法和幀間差分法提取運動目標,如圖5所示。

        圖5 背景差分法與幀間差分法的效果圖

        隨著目標的移動,鏡頭也跟隨移動,導致背景有所改變,采用中值法對背景實時更新。當完成新的背景建模后,結(jié)合背景與幀間差分法,將背景差圖像和相鄰兩幀差圖像直接進行‘與操作,其效果如圖6所示。

        圖6 結(jié)合背景及幀間差分法提取運動目標

        最后進行二值化處理得到運動目標,利用數(shù)學形態(tài)學運算使得運動區(qū)域封閉、連續(xù)、完整,并去掉背景中的噪聲,最終得到視頻序列圖像中運動目標存在與否的標記圖像,如圖7所示。

        4 結(jié)束語

        本文詳細介紹了視頻目標的基本檢測方法和分割步驟。為了實現(xiàn)檢測的快速性以及準確性,對圖像采用背景差分和幀間差分法相結(jié)合而獲得目標。采用這種方法既避免了背景差分法因背景變動導致的前景提取不準確,又避免了幀間差分法的前景目標不完整。為了使視頻目標區(qū)域更完整、更準確,需要對背景提取方法做更進一步的研究,用更好的方法來提取實時的背景,這樣,有利于更準確地提取運動目標。

        參考文獻:

        [1] 鄧楠.視頻監(jiān)控系統(tǒng)與人臉識別技術(shù)的結(jié)合應用[J].計算機光盤軟件

        與應用,2012.19:156-157

        [2] 萬纓,韓毅,盧漢清.運動目標檢測算法的探討[J].計算機仿真,

        2006.10:229-234

        [3] 徐晶,方明,楊華民.計算機視覺中的運動檢測與跟蹤[M].國防工業(yè)出

        版社,2012.

        [4] 馮仰敏.運動目標圖像檢測與跟蹤問題研究[D].西安建筑科技大學,

        2007.

        [5] 吳立德.計算機視覺[M].復旦大學出版社,1993.

        [6] 背景建模算法 [EB/OL]. http://wenku.baidu.com/link?url=

        ZwdjPaJBjuu1IhI8rkkMdTFjMUur9KttAndN993tcH00S9VTJFHx

        Dx3KnUJ3DPgjhb0pZcguuwvEHJvKfmPTSANWOg0zHgAuZ6c0JKnAeyO

        [7] 高飛,蔣建國,安紅新等.一種快速運動目標檢測算法[J].合肥工業(yè)大

        學學報(自然科學版),2012.2:42-45

        [8] 王亮亮,王黎,高曉蓉等.基于視頻圖像的運動目標檢測算法研究[J].

        微計算機信息,2010.16:155-157

        国产一区二区av在线免费观看| 亚洲av无码之国产精品网址蜜芽| 日韩精品人妻系列中文字幕| 亚洲youwu永久无码精品| 妺妺窝人体色www看美女| 国产午夜精品一区二区三区不卡 | 狠狠人妻久久久久久综合| 无码区a∨视频体验区30秒 | 高h视频在线免费观看| 国内激情一区二区视频| 国产av天堂亚洲av刚刚碰| 丰满熟女高潮毛茸茸欧洲视频| 亚洲欧美日韩另类精品一区| 久久丫精品国产亚洲av不卡| 亚洲欧美一区二区三区国产精| 国产亚洲青春草在线视频| 国产久色在线拍揄自揄拍| 中文字幕 亚洲精品 第1页| 色一情一区二区三区四区| 亚洲熟少妇在线播放999| 国产成人免费一区二区三区| 国产一区二区精品久久呦| 国产自产二区三区精品| 先锋五月婷婷丁香草草| 性色av浪潮av色欲av| 精品人妻中文av一区二区三区| 揄拍成人国产精品视频肥熟女| 久久精品国产亚洲AV高清y w| 亚洲国产高清一区av| 伊人中文字幕亚洲精品乱码| 国产精品无码久久久久成人影院| 久久精品一区二区免费播放| 亚洲成片在线看一区二区| 日本加勒比精品一区二区视频| 真实的国产乱xxxx在线| 性一交一乱一伦a片| 人妻系列无码专区久久五月天| 亚洲综合网一区二区三区| 国产做a爱片久久毛片a片| 成人无码免费一区二区三区| 久久亚洲日本免费高清一区 |