亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        背景提取算法在雷達(dá)視頻圖像中的應(yīng)用*

        2013-11-28 09:39:38孫宇宸
        艦船電子工程 2013年12期
        關(guān)鍵詞:背景模型

        熊 偉 孫宇宸 劉 奇

        (1.海軍航空工程學(xué)電子信息工程系 煙臺 264001)(2.海裝軍械裝備部彈藥武器處 北京 100038)

        1 引言

        背景提取算法是通過處理連續(xù)圖像,將其中的運(yùn)動物體剔除,從而獲得只含有靜止物體(如:房屋、靜止的汽車等)的圖像的一系列圖像處理方法,這些算法可以將視頻圖像中靜止的或者是遵循一定規(guī)律運(yùn)動的物體提取出來。近年來,背景提取算法已經(jīng)成為來國內(nèi)外諸多學(xué)者研究的重點(diǎn)課題。背景提取算法的應(yīng)用非常廣泛,最典型的是交通道路視頻檢測[1~5]。通過對交通道路進(jìn)行背景提取,可以有效地檢測出某一路段的車流量等信息,從而為交通部門進(jìn)行車流疏導(dǎo)提供參考依據(jù)。背景提取算法應(yīng)用在雷達(dá)視頻圖像中可以將雷達(dá)視頻圖像中的固定目標(biāo)、島嶼等識別并且提取出來,從而更快捷、清晰地捕捉雷達(dá)圖像中的動目標(biāo)信息,提高對雷達(dá)視頻圖像中運(yùn)動目標(biāo)的跟蹤性能。

        國內(nèi)外專家學(xué)者已經(jīng)針對背景提取提出了諸多方法[6]。常見的背景提取算法有:多幀平均法[7~8]、統(tǒng)計(jì)中值圖法[9~12]、混合高斯模型法等[13~19]。本文將這幾種典型的背景提取算法應(yīng)用在雷達(dá)視頻圖像中并進(jìn)行仿真分析,通過比較,找出現(xiàn)有的背景提取算法在雷達(dá)視頻圖像背景提取中的優(yōu)缺點(diǎn),為進(jìn)一步的算法研究打下較好的基礎(chǔ)。

        2 背景提取算法

        2.1 多幀平均法

        多幀平均法是利用圖像中每個(gè)像素的灰度信息(灰度即亮度)進(jìn)行背景提取的方法。在雷達(dá)圖像中,由于各種景物的雷達(dá)反射回波的強(qiáng)弱不同,圖像中呈現(xiàn)出亮度不同的區(qū)域。由于圖像中的雜波具有多樣性,其灰度值出現(xiàn)大于、小于或者與背景的灰度值相當(dāng)?shù)那闆r。從統(tǒng)計(jì)學(xué)的角度看,在一段時(shí)間內(nèi),由于雜波變化引起的圖像灰度值的改變可以通過求平均值加以消除。因此,我們可以將多幀平均法用在雷達(dá)視頻圖像的背景提取中。

        多幀平均法的原理是用累加平均法將雷達(dá)視頻圖像中的噪聲消除。由于雷達(dá)視頻圖像的大部分噪聲是隨機(jī)的,不同幀之間的噪聲明顯不同,通過多幀平均,可以將噪聲消除,從而提取雷達(dá)視頻圖像中的背景。多幀平均法可以用如下公式表示:

        式(1)中,Background(x,y)表示背景圖像;N 表示總的幀數(shù);imagei(x,y)表示第i幀圖像。

        多幀平均法具有模型簡單、計(jì)算方便等優(yōu)點(diǎn)。但是,當(dāng)圖像中某一點(diǎn)的灰度值大范圍波動時(shí),會造成提取的背景圖像中呈現(xiàn)亮暗分布不均勻的情況,隨著幀數(shù)的增多,這種情況會有所改善。在處理雷達(dá)視頻圖像時(shí),由于圖像中的運(yùn)動物體速度較慢,該方法不能準(zhǔn)確捕捉運(yùn)動物體,會將慢速運(yùn)動的艦船誤識別為背景。

        2.2 統(tǒng)計(jì)中值法

        統(tǒng)計(jì)中值法是基于排序理論的背景提取方法,這種方法的特點(diǎn)是可以有效地抑制噪聲中非線性信號。在光學(xué)視頻圖像的背景提取中,這種算法的優(yōu)點(diǎn)在于可以克服線性濾波帶來的模糊影響,很好地保持圖像的邊緣特性。由于雷達(dá)視頻圖像中的隨機(jī)噪聲大部分都不是線性信號,所以,該算法對雷達(dá)視頻圖像中的隨機(jī)噪聲有很好的識別效果。

        統(tǒng)計(jì)中值法的思想和數(shù)字圖像處理中的中值濾波的思想相似,就是把圖像中某個(gè)像素點(diǎn)的值用其領(lǐng)域中各個(gè)像素點(diǎn)的中值代替。描述為:將序列x1,x2,…,xn中的數(shù)據(jù)按照從小到大的順序排列,組成新的序列xi1,xi2,…,xin,中值y可以表示為

        統(tǒng)計(jì)中值法進(jìn)行雷達(dá)圖像處理的時(shí)候,有效地減輕了算法的復(fù)雜程度,較好地保護(hù)了邊緣信息,但是這種算法無法為圖像序列的變化給出嚴(yán)格的統(tǒng)計(jì)解釋,同時(shí),在處理背景差值的時(shí)候無法對偏差做出估計(jì)。

        2.3 混合高斯模型法

        混合高斯建模是從單高斯建模發(fā)展而來的。單高斯模型的核心思想是假設(shè)每個(gè)像素點(diǎn)的亮度值服從高斯分布N(μ,σ2),噪聲認(rèn)為是白噪聲?;旌细咚鼓P蛯⒚總€(gè)像素的亮度值用K個(gè)高斯分布來建模,同時(shí)對這K個(gè)高斯分布設(shè)定優(yōu)先級,按照優(yōu)先級從高到低的順序排列,設(shè)置適當(dāng)?shù)谋尘皺?quán)值和閾值,只有符合閾值的分布被認(rèn)為是背景,否則認(rèn)為是前景。在處理雷達(dá)視頻圖像的時(shí)候,可以利用該模型較高的自適應(yīng)能力,對圖像中不斷變化的隨機(jī)噪聲進(jìn)行剔除,同時(shí),對于圖像中運(yùn)動較快的目標(biāo),該方法也有較好的辨別能力。

        對高斯模型的描述較為復(fù)雜,詳細(xì)描述見文獻(xiàn)[16]、文獻(xiàn)[17]?;旌细咚鼓P捅尘疤崛∷惴ㄊ且粋€(gè)能處理多模情況而且自適應(yīng)的背景提取算法。在光學(xué)視頻圖像背景提取時(shí),這種算法提取的背景精確度較高,可以有效地識別運(yùn)動物體和靜止的背景。

        混合高斯模型法是幾種常用方法中背景提取效果最好的一種方法,這種方法基本不會受到光照強(qiáng)弱、雜波數(shù)量和種類等因素的影響。現(xiàn)有文獻(xiàn)對混合高斯模型提出了很多改進(jìn),并且取得了一定的效果,比如文獻(xiàn)[19],我們下一步的研究主要是針對高斯模型進(jìn)行改進(jìn),將其更好的用在雷達(dá)圖像的背景提取中。

        3 仿真

        3.1 仿真環(huán)境

        本文利用裝有Opencv(計(jì)算機(jī)視覺庫)的 Microsoft Visual Studio 2008軟件對第二章提到的各種算法進(jìn)行仿真。選取的兩幅雷達(dá)圖像分別為晴朗天氣和陰雨天氣采集的民用導(dǎo)航雷達(dá)(JRC)視頻圖像。

        3.2 仿真結(jié)果與分析

        圖1為本次選取的雷達(dá)視頻圖像中某一幀的雷達(dá)原始圖像,其中圖1(a)為晴朗天氣原始雷達(dá)圖像,圖1(b)為陰雨天氣原始雷達(dá)圖像。圖1中標(biāo)明的區(qū)域一為雷達(dá)原始圖像中的陸地區(qū)域,區(qū)域二為由于遮擋物導(dǎo)致的雷達(dá)信號盲區(qū),區(qū)域三為雷達(dá)圖像中的海洋區(qū)域,為了使觀察方便,該三塊區(qū)域在其他各個(gè)圖像中不再標(biāo)出。圖1(a)中標(biāo)明的目標(biāo)一、目標(biāo)二均為包含多個(gè)目標(biāo)的群目標(biāo),為了方便觀察,在下面的圖像中不再分別標(biāo)出,如果下文提及,則為相對應(yīng)的目標(biāo)(圖1(b)同);圖1(b)中表明目標(biāo)一、目標(biāo)二、目標(biāo)三,其中,目標(biāo)一為單目標(biāo),目標(biāo)二、目標(biāo)三均為群目標(biāo)。

        圖1 原始雷達(dá)圖像

        圖2 多幀平均法獲取的背景圖像

        圖3 統(tǒng)計(jì)中值法獲取的背景圖像

        圖4 混合高斯模型法獲取的背景圖像

        分別對比圖1、圖2中相對應(yīng)的圖像(即對比圖2(a)和圖1(a),圖2(b)和圖1(b),下同)圖2整體亮度變暗。圖2中區(qū)域一相對應(yīng)的區(qū)域除變暗外,其邊界有模糊的跡象,這是由于雷達(dá)采集數(shù)據(jù)的時(shí)候,由于雷達(dá)的抖動造成的相鄰幀圖像中的陸地不能完全重合;圖2中區(qū)域二中的雷達(dá)回波較強(qiáng)的噪聲點(diǎn)明顯變暗或者減少,這是由于這些噪聲的隨機(jī)性,使得多幀平均后被消除;圖1(a)目標(biāo)二和圖1(b)目標(biāo)三中的艦船在圖2中均有明顯被拉長的跡象,這是由于這些船運(yùn)動速度較慢,多幀平均法無法將其消除。

        對比圖3和圖1中相對應(yīng)圖像,圖3整體變得模糊,但是仍舊保持了較好的輪廓信息。其中,區(qū)域一的陸地輪廓表現(xiàn)的較為清晰,圖3中各個(gè)目標(biāo)的艦船均出現(xiàn)模糊的趨向,這是由于運(yùn)動的艦船的形狀趨向于線條狀,而統(tǒng)計(jì)中值法由于對邊緣信息比較敏感,統(tǒng)計(jì)背景時(shí)會將這種近似于線條狀的物體模糊化。

        對比圖4和圖1中相對應(yīng)圖像,圖4的清晰度明顯高于圖1。其中區(qū)域一的陸地區(qū)域的輪廓顯示效果明顯高于圖1中的陸地輪廓,并且陸地中各種景物的回波更加清晰,基本沒有模糊現(xiàn)象;區(qū)域二中的雜波數(shù)量大幅度減少,沒有很明顯的強(qiáng)噪聲點(diǎn)。圖1(a)中目標(biāo)一和圖1(b)中目標(biāo)一、二中的目標(biāo)被拉長并且模糊化,顯示出了運(yùn)動軌跡,通過這樣的現(xiàn)象,我們可以判斷,這兩塊區(qū)域中包含的目標(biāo)在不斷的運(yùn)動,因此,可以將這些目標(biāo)認(rèn)定為運(yùn)動目標(biāo)。

        通過對三種典型背景提取算法進(jìn)行仿真分析,可以發(fā)現(xiàn):背景提取算法應(yīng)用在雷達(dá)視頻圖像的背景提取中既有其優(yōu)點(diǎn),也有其不足之處。優(yōu)點(diǎn)在于由于雷達(dá)視頻圖像中不存在光照強(qiáng)度的變化對圖像的影響,因此,這些算法應(yīng)用在光學(xué)視頻圖像中時(shí)干擾較大的光照因素可以不予考慮;缺點(diǎn)在于由于雷達(dá)視頻圖像中大部分的目標(biāo)運(yùn)動比較緩慢,或者是在有限幀的范圍內(nèi)無法發(fā)生明顯的位移,導(dǎo)致了在視頻背景提取時(shí)會將這些目標(biāo)誤判為背景,使得背景提取不準(zhǔn)確??傊?,三種算法都能較好地排除雷達(dá)視頻圖像中的隨機(jī)噪聲,但是對運(yùn)動不明顯的目標(biāo)敏感性較差。

        4 結(jié)語

        本文將三種最基本的背景提取算法應(yīng)用在雷達(dá)視頻圖像的背景提取中,這三種算法分別從多幀平均、統(tǒng)計(jì)角度和高斯混合模型法的方向上體現(xiàn)了典型的視頻背景提取算法的幾種思路。鑒于篇幅原因,沒有將其他典型算法,如:統(tǒng)計(jì)直方圖法等一一列出,但是,通過本文的研究,我們足以發(fā)現(xiàn)視頻背景提取算法應(yīng)用在雷達(dá)視頻圖像的提取中具有一定的可行性,也具有較大的實(shí)用價(jià)值。

        在今后的研究中,我們要以本文的仿真結(jié)果為基礎(chǔ),在分析現(xiàn)有背景提取算法在雷達(dá)視頻背景提取中展現(xiàn)出來的優(yōu)缺點(diǎn)的基礎(chǔ)上,對現(xiàn)有算法進(jìn)行改進(jìn),并且通過仿真實(shí)驗(yàn)不斷發(fā)現(xiàn)問題、解決問題。雷達(dá)視頻圖像的背景提取是一個(gè)比較有研究價(jià)值的方向,如果能夠找出好的方案精確地提取圖像中的背景,將能夠更加高效地實(shí)現(xiàn)對運(yùn)動目標(biāo)的跟蹤。

        [1]韓亞偉.視頻交通流背景提取與運(yùn)動目標(biāo)跟蹤檢測技術(shù)研究[D].西安:長安大學(xué),2009:10-34.

        [2]GLOYER B,AGHAJAN H K,SIU K Y,et al.Vehicle detection and tracking for freeway traffic monitoring[C]//Conference Record of the Twenty-Eighth Asilomar Conference on Signals,Systems and Computers,1994:970-974.

        [3]GUPTE S,MASOUD O,Martin R F K,et al.Detection and classification of vehicles[J].IEEE Transaction on Intelligent Transportation Systems,2002,3(1):37-47.

        [4]趙有婷,李煦瑩,羅東華.基于視頻車輛軌跡模型的交通事件自動檢測方法研究[J].中山大學(xué)學(xué)報(bào),2011,50(4):56-60.

        [5]但妮.視頻序列中運(yùn)動目標(biāo)提取與檢測算法研究[D].南京:南京郵電大學(xué),2009:32-47.

        [6]PACCARDI M.Background subtraction techniques:a review[C]//2004IEEE International Conference on Systems,Man &Cybemetics,2004:3099-3104.

        [7]樊曉亮,楊晉吉.基于幀間差分的背景提取與更新算法[J].計(jì)算機(jī)工程,2011,37(22):159-161.

        [8]劉欣頁,李文舉,高連軍,等.一種有效的道路背景提取與更新算法[J].微型機(jī)與應(yīng)用,2012,31(7):46-48.

        [9]LO B.P.L,VELASTIN S.A.Automatic congestion detection system for underground platforms[C]//2001International Symposium on Intelligent Multimedia,Video and Speech Processing,2001:158-161.

        [10]CUCCHIARA C,CRANA C,PICCARDI M,et al.Detecting moving objects,ghosts,and shadows in video streams[J].IEEE Transaction on Pattern Analysis and Machine Intelligence,2003,25(10):1337-1442.

        [11]蘇禮坤,陳懷新.中值濾波的視頻背景更新[J].光電工程,2010,34(1):37-41.

        [12]KOLLER D,WEBER J,HUANG T,et al.Towards robust automatic traffic scene analysis in real-time[C]//12th IAPR International Conference on Patten Recognition.Jerusalem,1994:126-131.

        [13]Stauffer C,Grimson W E L.Adaptive background mixture models for real-time tracking[C]//Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Fort Collins,Colorado,USA,1999:246-252.

        [14]Elgammal A,Duraiswami R.Harwood D,et al.Background and foreground modeling using nonparametric kernel density estimation for visual surveillance[C]//Proceedings of IEEE.New York,USA,2002:1154-1163.

        [15]Heikkila M,Pietikainen M.A texture-based method for modeling the background and detecting moving objects[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2006,28(4):657-662.

        [16]李明之,馬志強(qiáng),單勇,等.復(fù)雜條件下高斯混合模型的自適應(yīng)[J].計(jì)算機(jī)應(yīng)用,2011,31(7):115-118.

        [17]朱齊丹,李科,張智,等.改進(jìn)的混合高斯自適應(yīng)背景模型[J].哈爾濱工程大學(xué)學(xué)報(bào),2010,31(10):1347-1352.

        [18]王永忠,梁彥,潘泉,等.基于自適應(yīng)混合高斯模型的時(shí)空背景建模[J].自動化學(xué)報(bào),2009,35(4):371-377.

        [19]張燕平,白云球,趙勇,等.應(yīng)用改進(jìn)混合高斯模型的運(yùn)目標(biāo)檢測[J].計(jì)算機(jī)工程與應(yīng)用,2010,46(34):155-158.

        猜你喜歡
        背景模型
        一半模型
        “新四化”背景下汽車NVH的發(fā)展趨勢
        《論持久戰(zhàn)》的寫作背景
        重要模型『一線三等角』
        黑洞背景知識
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        晚清外語翻譯人才培養(yǎng)的背景
        3D打印中的模型分割與打包
        背景鏈接
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        欧美金发尤物大战黑人| 毛片精品一区二区二区三区| 青青草在线这里只有精品| 亚洲国产精品无码中文字| 精品无码国产自产野外拍在线| 全部免费国产潢色一级| 国产午夜在线观看视频| 青青草原综合久久大伊人精品| 久久久久久国产精品mv| 亚洲伊人久久一次| 日本一区二区三区一级免费| 99久久99久久久精品蜜桃| 最新系列国产专区|亚洲国产| 日韩毛片在线看| 久久伊人中文字幕有码久久国产| 国产av剧情刺激对白| 特级毛片爽www免费版| 成人爽a毛片一区二区免费| 大量老肥熟女老女人自拍| 国产日本精品视频一区二区| 久久久久波多野结衣高潮| 久久人妻AV无码一区二区| 国产伦一区二区三区久久| 国产 一二三四五六| 99精品国产高清一区二区麻豆| 亚洲欧美日韩精品久久亚洲区色播| 日本精品人妻一区二区| 精品伊人久久大线蕉色首页| 又污又黄又无遮挡的网站| 久久精品日本美女视频| 精品女同一区二区三区| 老师粉嫩小泬喷水视频90| 国产乱人伦偷精品视频免| 在线观看中文字幕不卡二区| 欧洲成人一区二区三区| 久久日本三级韩国三级| 国产亚洲AV片a区二区| 偷拍美女上厕所一区二区三区| 40岁大乳的熟妇在线观看| 国产精品天堂avav在线| 亚洲一本二区偷拍精品|