亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于RGB三通道分離的運(yùn)動(dòng)目標(biāo)檢測(cè)方法

        2012-06-25 03:31:26沈盼盼伍瑞卿
        電視技術(shù) 2012年3期
        關(guān)鍵詞:像素點(diǎn)灰度背景

        沈盼盼,樊 豐,伍瑞卿

        (電子科技大學(xué),四川 成都 611731)

        1 背景介紹

        對(duì)視頻序列中運(yùn)動(dòng)目標(biāo)的提取是計(jì)算機(jī)視覺和視頻分析的基本部分,在視頻監(jiān)控[1]、體育運(yùn)動(dòng)分析[2]、人機(jī)交互[3]、輔助臨床醫(yī)療診斷[4]等領(lǐng)域有廣泛的應(yīng)用前景?;诒尘安罘值倪\(yùn)動(dòng)目標(biāo)檢測(cè)是最常用的方法[5],該方法中背景的獲取和更新是關(guān)鍵。近年來,人們對(duì)如何構(gòu)建背景進(jìn)行了大量的研究,例如高斯模型的法、中值法、時(shí)間平均法等,大多數(shù)都是針對(duì)像素建立的。

        本文從直接計(jì)算背景像素值的角度研究。因?yàn)闀r(shí)間平均法容易將前景運(yùn)動(dòng)目標(biāo)混入到背景圖像中,導(dǎo)致提取的背景圖像出現(xiàn)混影。自適應(yīng)平滑算法利用通過時(shí)間段內(nèi)像素點(diǎn)的不變性建立背景模型,但是如果運(yùn)動(dòng)目標(biāo)運(yùn)動(dòng)緩慢或者暫時(shí)靜止時(shí)候會(huì)將前景像素值誤判為背景像素值,產(chǎn)生錯(cuò)誤結(jié)果?;谙袼卦跁r(shí)間軸上變化提出的中值法,檢測(cè)過程中可能會(huì)因光照的變化將噪聲點(diǎn)像素值誤判為背景。針對(duì)這些問題,本文根據(jù)運(yùn)動(dòng)目標(biāo)像素值的變換比背景的變化快[6]的思想,采用幀間差分法和中值法相結(jié)合構(gòu)造背景模型,并且利用幀差信息對(duì)背景實(shí)時(shí)更新。采用對(duì)RGB空間的三通道分離的運(yùn)動(dòng)目標(biāo)檢測(cè)方法,采用Osto法[7]獲取閾值來提取運(yùn)動(dòng)區(qū)域。本文算法在運(yùn)動(dòng)目標(biāo)存在的情況下也能建立較完整的背景模型,構(gòu)建的背景可適應(yīng)光照變化和微小物體的抖動(dòng),克服了在對(duì)目標(biāo)和背景灰度相近的情況下難以提取準(zhǔn)確的目標(biāo)對(duì)象的問題,另外,背景更新是針對(duì)每個(gè)像素點(diǎn)更新,大大減少了運(yùn)算時(shí)間。

        2 背景模型的建立

        首先,利用中值法獲取背景BM;然后,利用相鄰幀間差分的變化獲取背景BS;考慮到光照等影響,中值法難免會(huì)將噪聲點(diǎn)誤判為背景,所以最后將得到的BM和BS進(jìn)行加權(quán),得到初始背景模型。圖1為初始背景模型的獲取流程圖。

        算法步驟為:

        1)從N幀視頻呢序列中獲取n幀圖像,記作(f1,f2,…,fn)。

        圖1 背景模型獲取流程圖

        4)對(duì)n幀圖像進(jìn)行灰度變換,變換后的灰度圖像序列記為 (g1,g2,…,gn)。

        5)對(duì)n幀灰度圖像(g1,g2,…,gn)進(jìn)行幀間差分,對(duì)差分后的每個(gè)灰度圖像進(jìn)行二值化,閾值的選取由Otsu 法確定,得到一個(gè)二值圖像序列 D2(i,j),D3(i,j),…,Dn(i,j)。

        6)在二值圖像序列中,每個(gè)像素點(diǎn)的值可看作是由0和1組成的一維數(shù)組,找出其一維數(shù)組中連續(xù)性最長的0 的區(qū)間,例如點(diǎn) (i,j)的像素點(diǎn)變化情況為[0,1,0,0,1,0,0,0,1,1],可以看出最長的0 區(qū)間中有 3 個(gè) 0。求出這個(gè)區(qū)間中最中間的元素所在的列數(shù),找出其對(duì)應(yīng)的視頻序列號(hào),如果是奇數(shù)個(gè)0就取最中間一列,對(duì)應(yīng)視頻序列號(hào)為M,如果是偶數(shù)個(gè)0就取中間兩列,對(duì)應(yīng)視頻序列號(hào)為M1和M2。

        7)假設(shè)提取的最長0區(qū)間有m個(gè)0,則背景圖像BS的每個(gè)像素值計(jì)算公式如下

        每個(gè)像素都進(jìn)行處理,最后得到第二個(gè)背景模型BS。

        8)考慮到兩種方法的優(yōu)缺點(diǎn),本文將獲取的兩個(gè)背景模型按照式(2)結(jié)合來作為初始背景模型B0

        式中,λ在(0,1)的范圍內(nèi)。

        圖2和圖3顯示了對(duì)SampleVideo和highway分別利用時(shí)間均值法、文獻(xiàn)[4]的方法以及本文算法建立的背景模型。序列SampleVideo中λ取值為0.97,序列highway中λ取值為0.9。從圖中可以看出,用時(shí)間平均法獲取的背景模型會(huì)殘留前景部分的重影,尤其在運(yùn)動(dòng)目標(biāo)速度較快的時(shí)候比較明顯。文獻(xiàn)[4]的方法在目標(biāo)存在或者移動(dòng)緩慢的情況下會(huì)將目標(biāo)部分誤判為背景。而本文算法建立的背景效果較好。

        3 背景模型的更新

        取n幀視頻序列,由視頻序列每個(gè)圖像和初始化背景模型對(duì)比得到一個(gè)差異累計(jì)圖像。在差異累計(jì)圖像每個(gè)像素點(diǎn)設(shè)置一個(gè)計(jì)數(shù)器,序列圖像和初始化背景模型之間在某個(gè)像素點(diǎn)出現(xiàn)一次較小差異就令計(jì)數(shù)器加1,差異大小根據(jù)閾值Tf來判斷。當(dāng)?shù)趉幀圖像與初始化背景模型相比較時(shí),差異累計(jì)圖像可看作是隨時(shí)間變化的一個(gè)動(dòng)態(tài)矩陣A(i,j,tk)。根據(jù)運(yùn)動(dòng)對(duì)象的像素值變化比背景像素值變化快的特點(diǎn),按照如下方法更新背景:

        設(shè)有 m 幀視頻序列 f1(i,j),f2(i,j),…,fm(i,j),差異累計(jì)矩陣為

        式中:τ(i,j)記錄每個(gè)像素差異累計(jì)的次數(shù),由二值圖像序列(g1,g2,…,gn)中每個(gè)像素點(diǎn)的最長0區(qū)間長度決定,因此每個(gè)像素點(diǎn)的τ值不同。假如當(dāng)前的背景模型為Bk-1(i,j),則當(dāng)累計(jì)至 τ(i,j)時(shí),點(diǎn) (i,j)處的背景像素值根據(jù)式(2)自動(dòng)更新,而差異累計(jì)圖像中為0的像素點(diǎn)處背景像素值不變,公式為

        式中:α為更新率,取值在(0,1)區(qū)間。

        4 運(yùn)動(dòng)目標(biāo)的檢測(cè)

        為了在閾值化時(shí)消除部分噪聲的影響,首先對(duì)背景差后的灰度圖像進(jìn)行濾波處理,本文采用的中值濾波。fk為當(dāng)前視頻圖像,Bk為當(dāng)前背景圖像。本文采用Otsu法自動(dòng)選取分割閾值T0,另外為了抑制光照突變的影響,增加一個(gè)動(dòng)態(tài)閾值Ts。計(jì)算公式如下

        式中:T為選取的閾值,Ts體現(xiàn)了光照的整體變化,增加Ts能夠在閾值時(shí)候抑制光線的影響。ε為抑制系數(shù),如果光照變化明顯則取較大值反之,取較小值。

        閾值化后的二值圖像中,運(yùn)動(dòng)對(duì)象已經(jīng)大致獲取,但是由于光照的突變或者噪聲的影響使得檢測(cè)到得前景中含有噪聲點(diǎn)、空洞、間隙等,需要進(jìn)一步優(yōu)化才能得到較準(zhǔn)確的運(yùn)動(dòng)目標(biāo)。本文首先采用形態(tài)學(xué)的開、閉操作來填充小的空洞間隙,消除小一些的噪聲點(diǎn),然后對(duì)整個(gè)圖像進(jìn)行連通性分析,將面積較小的區(qū)域去除,最后留下的即是運(yùn)動(dòng)區(qū)域。

        5 陰影去除

        背景圖像中,被陰影遮擋后的區(qū)域的灰度值將比原來減小,但是在色度變化不大的情況下可認(rèn)為歸一化的顏色空間對(duì)陰影造成的像素點(diǎn)顏色、亮度變化不敏感,具有一定穩(wěn)健性[8]??紤]到只用RGB空間會(huì)丟失像素值的亮度信息,因此,分別按照式(4)計(jì)算當(dāng)前視頻圖像和當(dāng)前背景圖像的歸一化顏色空間的r和g的值,計(jì)算當(dāng)前視頻圖像和當(dāng)前背景圖像的亮度值為

        如果在 (r,g,I)空間的當(dāng)前像素值為 (rk,gk,Ik),背景像素值為(rb,gb,Ib),則當(dāng)前像素值同時(shí)滿足式(10)的3個(gè)條件時(shí),即為陰影

        最后將檢測(cè)出的陰影部分從提取出運(yùn)動(dòng)目標(biāo)的二值圖像中清除,得到更加精確的目標(biāo)對(duì)象。

        6 實(shí)驗(yàn)結(jié)果與分析

        為了驗(yàn)證本文算法的有效性,選取了2組視頻序列進(jìn)行目標(biāo)檢測(cè),并將本文算法在灰度域進(jìn)行試驗(yàn),與在RGB域的試驗(yàn)結(jié)果進(jìn)行比較。圖4顯示了SampleVideo在灰度域獲取的初始背景模型、目標(biāo)檢測(cè)結(jié)果以及經(jīng)過形態(tài)學(xué)處理后得出的目標(biāo)區(qū)域的二值圖像。圖5顯示了SampleVideo在RGB空間獲取的初始背景模型、各個(gè)通道的目標(biāo)檢測(cè)結(jié)果、3個(gè)通道相結(jié)合的檢測(cè)結(jié)果以及經(jīng)過形態(tài)學(xué)處理后得出的目標(biāo)區(qū)域二值圖像。

        比較圖4和圖5可以看出,在目標(biāo)灰度值和背景相近的情況下,在灰度域進(jìn)行背景差分必然會(huì)丟失掉一些有用信息,本文將各個(gè)通道分離后分別進(jìn)行目標(biāo)檢測(cè),然后取并集可以得到更完整的運(yùn)動(dòng)對(duì)象。

        圖6是對(duì)SampleVideo序列第21幀、第30幀、第45幀的檢測(cè)結(jié)果,圖7是對(duì)hall的第15幀、第80幀、第100幀的檢測(cè)結(jié)果,圖8是對(duì)viptraffic的第20幀、第35幀、第51幀的檢測(cè)結(jié)果。

        7 結(jié)論

        本文主要對(duì)初始背景模型的獲取加以改進(jìn),采用三通道分離來檢測(cè)運(yùn)動(dòng)目標(biāo),實(shí)時(shí)性好,對(duì)目標(biāo)和背景灰度相近的情況有較好的檢測(cè)結(jié)果。但是也存在一些不足,如果目標(biāo)長時(shí)間停留或者做微小的運(yùn)動(dòng),獲取的背景模型會(huì)摻雜較多目標(biāo)區(qū)域,使得檢測(cè)結(jié)果不夠理想,有待進(jìn)一步研究,結(jié)合其他方法進(jìn)行改進(jìn)。

        [1]于忠校.視頻監(jiān)控圖像的運(yùn)動(dòng)目標(biāo)檢測(cè)方法綜述[J].電視技術(shù),2008,32(5):72-76.

        [2]JI Xiaofei,LIU Honghai.Advances in view-invariant human motion analysis:a review[J].IEEE Transaction on Systems,Man,and Cybernetics,Part C:Applications and Reviews,2010,40(1):13-24.

        [3]FAI H,YAMAMOTO S.Bayesian online change point detection to improve transparency in human-machine interaction systems[C]//Proc.the 49th IEEE Conference on Decision and Control.[S.l.]:IEEE Press,2010:3572-3577.

        [4]楊紅梅.基于人體運(yùn)動(dòng)跟蹤的遠(yuǎn)程康復(fù)系統(tǒng)關(guān)鍵技術(shù)的研究[D].重慶:重慶郵電大學(xué),2010.

        [5]齊志才.自動(dòng)化儀表[M].北京:中國林業(yè)出版社,2006.

        [6]YANG T,LI S Z.Real-time and accurate segmentation of moving objects in dynamic scene[C]//Proc.the ACM 2nd International Workshop on Video Surveillance & Sensor Networks.[S.l.]:IEEE Press,2004:136-143.

        [7]朱瑾瑜,劉海燕,黃淑梅.基于連通性檢測(cè)的視頻監(jiān)控運(yùn)動(dòng)目標(biāo)提?。跩].電視技術(shù),2007,31(10):78-80.

        [8]毛曉波,謝曉芳,張曉林.消除運(yùn)動(dòng)物體陰影的最大色度差分檢測(cè)法[J].電子技術(shù)應(yīng)用,2007,33(1):61-63.

        猜你喜歡
        像素點(diǎn)灰度背景
        采用改進(jìn)導(dǎo)重法的拓?fù)浣Y(jié)構(gòu)灰度單元過濾技術(shù)
        “新四化”背景下汽車NVH的發(fā)展趨勢(shì)
        基于灰度拉伸的圖像水位識(shí)別方法研究
        《論持久戰(zhàn)》的寫作背景
        基于canvas的前端數(shù)據(jù)加密
        基于最大加權(quán)投影求解的彩色圖像灰度化對(duì)比度保留算法
        基于逐像素點(diǎn)深度卷積網(wǎng)絡(luò)分割模型的上皮和間質(zhì)組織分割
        晚清外語翻譯人才培養(yǎng)的背景
        基于灰度線性建模的亞像素圖像抖動(dòng)量計(jì)算
        基于Node-Cell結(jié)構(gòu)的HEVC幀內(nèi)編碼
        最新亚洲人成无码网www电影| 国产三级精品av在线| 变态另类人妖一区二区三区| 成人网站在线进入爽爽爽| 九九精品国产亚洲av日韩| 中字无码av电影在线观看网站| 国产精品一区成人亚洲| 国产成人av三级三级三级在线 | 性一交一乱一伦一视频一二三区| 日本精品人妻一区二区三区| 99精品久久精品一区| 人妻中出中文字幕在线| 99久久精品一区二区国产| 亚洲av综合色区无码专区桃色| 99久久国产综合精品女图图等你 | 国产裸拍裸体视频在线观看| 国产婷婷丁香五月麻豆| 亚洲国产日韩精品综合| 手机免费高清在线观看av| 疯狂三人交性欧美| 久久www免费人成人片| 亚洲一区sm无码| 91亚洲国产成人久久精品网站 | 中文字幕人妻系列一区尤物视频| 在线观看国产激情免费视频| 91中文人妻熟女乱又乱| 性高湖久久久久久久久| av无码天一区二区一三区| 久久国产精品国产精品久久| 手机久草视频福利在线观看| 国产人妻大战黑人20p| 人成午夜免费大片| 伊人色综合九久久天天蜜桃 | 国产嫩草av一区二区三区| 精品无码av一区二区三区| 欧美俄罗斯乱妇| 日本高清一区二区三区视频| 亚洲av综合色一区二区| 在线看片免费人成视频电影| 成在人线av无码免费| 能看的网站中文字幕不卡av|