亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        利用改進(jìn)的背景模型實(shí)現(xiàn)車輛檢測

        2010-08-14 01:11:56郭莉瓊王小鵬
        關(guān)鍵詞:背景檢測模型

        郭莉瓊,王小鵬

        (蘭州交通大學(xué) 電子與信息工程學(xué)院,甘肅 蘭州 730070)

        隨著智能交通技術(shù)的發(fā)展,智能交通系統(tǒng)中交通檢測已經(jīng)成為計算機(jī)視覺技術(shù)應(yīng)用的一項重要課題。序列圖像中車輛檢測與跟蹤在智能交通領(lǐng)域中起著關(guān)鍵作用。車輛檢測常用的方法有基于幀間的差分辦法、光流法和基于背景的差分辦法?;趲g的差分辦法可以簡單快速地提取出物體的運(yùn)動信息,但存在檢測出的運(yùn)動目標(biāo)位置不精確、物體在運(yùn)動方向上被拉伸等問題,而且很難實(shí)現(xiàn)多目標(biāo)檢測。光流法由于噪聲、多光源、陰影和遮擋等原因,計算出的光流場分布不十分可靠,且光流場的計算實(shí)時性和實(shí)用性較差。基于背景的差分辦法能解決基于幀間差分辦法和光流法中的問題,并且計算簡單,但是背景容易受到交通環(huán)境和光強(qiáng)度的影響,理想的背景不容易獲得,所以,自適應(yīng)環(huán)境變化的背景模型對運(yùn)動車輛檢測的精確性起著非常重要的作用。

        1算法描述

        智能交通系統(tǒng)是目前世界和各國交通運(yùn)輸領(lǐng)域競先研究和開發(fā)的熱點(diǎn),基于背景差分的辦法是從視頻流中檢測運(yùn)動物體常用的方法,是目前研究的重點(diǎn)。由于受到交通狀況、天氣和光強(qiáng)度等因素的影響,不容易獲得理想的背景,尤其在交通堵塞、車輛行動緩慢或者臨時停車等情況下,背景更新率低。

        圖1本文算法流程框圖

        圖1為車輛檢測流程圖。首先,建立基于區(qū)間分布的快速自適應(yīng)背景模型,然后利用改進(jìn)的基于ε-δ的背景更新算法對建立的背景模型進(jìn)行選擇性更新,結(jié)合閾值分割和形態(tài)學(xué)操作實(shí)現(xiàn)運(yùn)動車輛的提取。該算法既保持了較高的計算效率,也保證了復(fù)雜城市交通環(huán)境中車輛檢測的精確度。實(shí)驗(yàn)結(jié)果表明,本文提出的算法對于復(fù)雜交通環(huán)境(交通堵塞、車流量非常大、車流緩慢、交通堵塞或臨時停車等情況)有很好的背景提取和更新效果,與經(jīng)典的算法(混合高斯平均[1]、核密度估計[2])相比,在實(shí)時性和準(zhǔn)確性方面都有所提高。

        2自適應(yīng)背景模型

        為了解決車輛檢測精確度問題,國內(nèi)外學(xué)者在背景建模方面做了大量的研究[3]。參考文獻(xiàn)[4]利用視頻圖像中最近N幀的像素點(diǎn)的平均值的作為背景模型,這種方法在多個運(yùn)動目標(biāo)或者運(yùn)動目標(biāo)行動緩慢時,背景會被前景目標(biāo)污染。參考文獻(xiàn)[5]利用前幾幀的像素分布建立高斯分布模型,對于頻繁變化的像素,需要多個高斯混合分布[6]才能反映背景像素的變化。這些方法要求在背景模型的建立過程中沒有運(yùn)動車輛并且建立背景模型的時間較長,不能滿足實(shí)際應(yīng)用的需要。本文提出簡單有效的背景模型和更新的方法。

        2.1背景模型的建立

        在視頻圖像序列中,可以統(tǒng)計出每個坐標(biāo)點(diǎn)像素值的分布,并設(shè)定出現(xiàn)頻率高的像素值作為背景模型中對應(yīng)點(diǎn)的像素值。但是這種方法計算量比較大,并且對光線和背景的逐漸改變適應(yīng)性差。

        經(jīng)觀察,背景中每個點(diǎn)的像素值在某一區(qū)間范圍內(nèi)變化。給出視頻序列[F1,F(xiàn)2,…,FM],灰度圖像的像素范圍為0~255,把它分成N段區(qū)間,每個區(qū)間的范圍為[(i-1)×255/N,i×255/N]。 設(shè)定每個區(qū)間有兩個參數(shù) ui(x,y)、Ci(x,y),其中 ui(x,y)是區(qū)間灰度平均值,代表像素從 F1到FM的加權(quán)平均值;Ci(x,y)是區(qū)間計數(shù),代表從F1到FM像素屬于區(qū)間i的計數(shù)。為了使背景模型更好地適應(yīng)背景環(huán)境的改變,定義 ui(x,y)時,引入了一個衰減因子α。Fi的權(quán)值比 Fi-1的權(quán)值大,如 Fi的數(shù)值貢獻(xiàn)為 1,F(xiàn)i-1的數(shù)值貢獻(xiàn)以α的速率衰減。設(shè)定當(dāng)前幀為n,定義第i個區(qū)間的參數(shù)ui(x,y)如下:

        其中,In(x,y)是點(diǎn)(x,y)在第n幀中的像素值,如果像素值In(x,y)屬于區(qū)間 i,計算 ui(x,y),否則 ui(x,y)保持不變。

        同樣,定義 Ci(x,y)時,為 Ci(x,y)引入一個衰減因子β,β能夠有效地減小圖像歷史信息的影響。像素在Fi的貢獻(xiàn)為 1,則 Fi-1的貢獻(xiàn)為 1×β=β,每前 m幀的貢獻(xiàn)為1·β·β·β·…·β=βm。 設(shè)定當(dāng)前幀為 n,定義第 i個區(qū)間的Ci(x,y)為:

        在定義了ui(x,y)和 Ci(x,y)后,建立背景模型的細(xì)節(jié)步驟如下:

        (1)確定當(dāng)前像素屬于哪個區(qū)間,設(shè)定為i。

        (2)計 算 ui(x,y)和 Ci(x,y)。

        (3)根據(jù)Ci(x,y)把區(qū)間從小到大分類。

        (4)設(shè)定 Ci(x,y)最大的區(qū)間的 ui(x,y)作為背景模型Mt中對應(yīng)點(diǎn)的像素值。

        (5)對視頻流各幀所有像素點(diǎn)重復(fù)步驟(1)~(4)。

        2.2 背景模型更新

        經(jīng)過上述幾個步驟,得到能自適應(yīng)光強(qiáng)度變化的背景模型。但在車輛擁擠、臨時停車或者車輛運(yùn)動緩慢的情況下,背景模型容易出錯,導(dǎo)致車輛檢測準(zhǔn)確性降低。為了在復(fù)雜交通狀況下也能得到理想的背景模型,論文在傳統(tǒng)σ-δ背景更新方法[7]基礎(chǔ)上提出了一個是否更新背景模型的判斷尺度。

        圖2所示為判斷是否需要更新背景模型的流程圖。計算每個置信區(qū)間內(nèi)的Vt,比較每個像素點(diǎn)的方差估計量Vt和最小方差估計量 Vmin的大小。如果 Vt<Vmin,說明背景變化較小,保持該像素點(diǎn)的背景模型的基礎(chǔ)上判斷車流量的大小。針對車流量狀況,作是否改變置信區(qū)間、是否更新背景模型的判斷。反之,如果Vt≥Vmin,背景變化較大,用上面的方法尋找一個新的背景模型,再作車流量情況的判斷。如果判斷需要更新,使用如下σ-δ算法更新:

        (1)計算當(dāng)前背景模型:Mt=Mt1+sgn(It-Mt1);

        (3)更新方差估計量 Vt:Vt=Vt1+sgn(4△t-Vt1);

        (4)計算幀差 Dt:Dt=(△t-Vt);

        (5)判斷 Dt,如果 Dt為真,更新變化的 Vt和 Dt,否則只檢測不更新;

        (6)更新檢測計數(shù)圖像 ItDC:ItDC+=(Dt==1)。

        3運(yùn)動目標(biāo)提取

        圖2選擇更新背景模型流程圖

        其中,M(x,y)是運(yùn)動車輛的像素集,I(x,y)是當(dāng)前幀在點(diǎn)(x,y)的灰度值,B(x,y)是背景圖像在點(diǎn)(x,y)的灰度值,K為閾值。

        閾值分割的核心是閾值的選取問題。若閾值選取過大,會使車輛的某些部分被認(rèn)為是背景,使得車輛圖像殘缺,獲得的車輛信息不準(zhǔn)確;若閾值選取過小,由于光照的原因形成的陰影會和車輛粘連在一起,變成了車輛的一部分。因此選取合適的閾值對運(yùn)動車輛部分準(zhǔn)確地提取出來非常關(guān)鍵。

        本文選取基于最大方差理論的大津法作為視頻車輛檢測中閾值分割的處理算法。取閾值將物體從背景中分離出來,實(shí)際上就是將圖像中的所有像素分為2組,或?qū)儆谖矬w像素,或?qū)儆诒尘跋袼亍S筛怕收撝械睦碚摰弥?若使待分割的2組數(shù)據(jù)方差最大,則得到2組數(shù)據(jù)的錯分概率最小。

        經(jīng)過閾值分割已經(jīng)能夠成功地分割出運(yùn)動車輛。大津法分割得到的二值圖像仍然在車輛內(nèi)部存在黑色像素點(diǎn)的問題。為了使檢測到的運(yùn)動目標(biāo)完整而連續(xù),對背景幀差法得到的二值圖像進(jìn)行形態(tài)學(xué)膨脹與腐蝕。實(shí)驗(yàn)證明,經(jīng)過三次膨脹與腐蝕之后的圖像,可以基本填補(bǔ)運(yùn)動目標(biāo)的空洞。

        4實(shí)驗(yàn)結(jié)果

        本文以智能交通中車輛自動監(jiān)視系統(tǒng)為應(yīng)用背景,通過實(shí)驗(yàn)證明提出方法的正確性。使用固定在三腳架上的攝像機(jī)在室外攝取不同場景的視頻進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)平臺為PC機(jī)Matlab7.0仿真。

        圖3為自適應(yīng)背景模型的提取。選取特殊的臨時停車情況,本文提出的算法能夠自適應(yīng)提取出背景模型。本文提出的算法在第621幀時能夠得到理想的背景模型,如圖3所示;而利用高斯分布提取背景模型的方法則在1 460幀時才能獲得如圖所示的理想的背景模型。所以該算法比傳統(tǒng)的算法在計算速度上有所提高,能夠?qū)崟r性地檢測出運(yùn)動車輛。

        圖4為一段城市交通視頻,圖5為城市交通視頻中臨時停車情況,其中左下角為原始視頻,右下角為本文算法提取的背景模型,左上角為檢測出的運(yùn)動物體,右上角為標(biāo)定檢測出的運(yùn)動車輛。圖4分別取了城市交通視頻的第59幀和第114幀,圖5選取了第618幀和第673幀,可以看出在繁忙的城市交通中,本文提出的算法能夠準(zhǔn)確地檢測出運(yùn)動車輛。

        從圖4中可以看出在城市交通場景中運(yùn)動車輛能夠?qū)崟r地提取出理想的背景模型。通過背景差分辦法并結(jié)合閾值分割和形態(tài)學(xué)操作,精確地得到了運(yùn)動區(qū)域。

        從圖5可以看到臨時停車時,能夠準(zhǔn)確提取出背景模型。當(dāng)車輛經(jīng)過短暫的停車又并入車流時,背景中這個車輛慢慢變得模糊,而且在運(yùn)動目標(biāo)提取時提取了該車輛。說明該算法能夠在提高計算速度的同時保證檢測精確度。

        本文以背景模型的建立和選擇性更新為基礎(chǔ)實(shí)現(xiàn)車輛檢測。為了適應(yīng)快速改變的交通環(huán)境,本文提出一個自適應(yīng)的背景模型算法。在建立自適應(yīng)背景模型后,利用灰度圖像與背景模型差分實(shí)現(xiàn)運(yùn)動目標(biāo)提取。結(jié)合基于最大方差理論的大津法求取閾值進(jìn)行閾值分割,最后利用形態(tài)學(xué)膨脹和腐蝕操作填補(bǔ)閾值分割后運(yùn)動目標(biāo)的空洞,標(biāo)定出視頻圖像中的運(yùn)動車輛。仿真實(shí)驗(yàn)證明,提出的算法在像素水平上建立自適應(yīng)光強(qiáng)度等環(huán)境變化背景模型,同時估計交通流量的大小,通過對交通流量的估計判斷是否更新背景模型。本文提出的算法對于復(fù)雜交通環(huán)境(交通堵塞,車流量非常大,車流緩慢,交通堵塞或臨時停車等情況)有很好的背景提取和更新效果,并且能實(shí)時精確地提取出運(yùn)動車輛的完整信息。

        [1]CUCCHIARA R,GRANA C,PICCARD M,et al.Detecting moving objects,ghosts,and shadows in video streams[J].IEEE Trans.Pattern Anal.Mach.Intell.,2003,25:(10):1337-1342.

        [2]MITTAL A,PARAGIOS N.Motionbased background subtraction using adaptive kernel density estimation[J].Proc.IEEE Conf.on Computer Vision and Pattern Recognition,2004,2:302-309.

        [3]PICCARDI M.Background subtraction techniques:a review[J].Proceedings of IEEE International Conference on Systems,Man,and Cybernetics.Hague,Netherlands:IEEE,2004:3099-3140.

        [4]WANG Xing,PAN Shi Zhu.Real time detection of moving object in video surveillance system[J].Microcomputer and Its Application,2004(156):47-49.

        [5]ZHAO Ming,LI Na,CHEN Chun.Statistical inference for automatic video segmentation[J].Computer-aided Design and Computer Graphics,2005(36):318-323.

        [6]COLOMBARI A,FUDIELLO A,MURINO V.Segment and tracking of multiple video objects[J].Pattern Recognition,2007,40(4):1307-1317.

        猜你喜歡
        背景檢測模型
        一半模型
        “新四化”背景下汽車NVH的發(fā)展趨勢
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        《論持久戰(zhàn)》的寫作背景
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        晚清外語翻譯人才培養(yǎng)的背景
        3D打印中的模型分割與打包
        日本一卡2卡3卡四卡精品网站| 日韩女优视频网站一区二区三区| 国产农村妇女精品一区| 亚洲av永久无码精品网址| 亚洲肥老太bbw中国熟女| av无码电影一区二区三区| av免费在线国语对白| 国产a√无码专区亚洲av| 日韩精品一区二区亚洲av| 国产高清白浆| 精品国产乱子伦一区二区三| 胸大美女又黄的网站| 成人免费毛片内射美女-百度| 99久久久69精品一区二区三区| 一区二区人妻乳中文字幕| 成年性生交大片免费看| 亚洲日本va午夜在线影院| 久久久精品2019免费观看| 护士人妻hd中文字幕| 乱中年女人伦av一区二区| 欧美日韩电影一区| 狼人av在线免费观看| 亚洲日本国产精品久久| av人摸人人人澡人人超碰妓女| 国产成人亚洲综合无码精品| 久久精品伊人久久精品| 草色噜噜噜av在线观看香蕉| 国产精品天天狠天天看| 谁有在线观看av中文| 色婷婷久久精品一区二区| 亚洲国产精品第一区二区| 亚洲欧美日韩精品中文乱码| 极品少妇一区二区三区四区视频| 国产色系视频在线观看| 亚洲综合色丁香婷婷六月图片| 视频精品熟女一区二区三区| 免费亚洲老熟熟女熟女熟女| 黑人巨大无码中文字幕无码| 黑人巨大精品欧美在线观看| 日本一区二区不卡二区| 亚洲人成色7777在线观看不卡|