亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種適應(yīng)光照突變的運動目標(biāo)檢測方法

        2015-05-30 10:15:59楊霖
        科技創(chuàng)新與應(yīng)用 2015年20期
        關(guān)鍵詞:目標(biāo)檢測

        摘 要:目的:針對現(xiàn)有運動目標(biāo)檢測方法在光照突變場景下存在的問題,提出一種能夠快速適應(yīng)光照突變場景的運動目標(biāo)檢測方法。方法:基于自組織神經(jīng)網(wǎng)絡(luò)背景減除方法進行改進,利用圖像全局亮度變化幅度來判斷當(dāng)前圖像是否發(fā)生光照突變,若發(fā)生則對背景模型進行光照補償,并改變背景模型的更新策略,使算法能夠快速適應(yīng)光照突變場景。結(jié)論:實驗證明該方法能夠有效改善算法在光照突變場景下的檢測效果。

        關(guān)鍵詞:光照突變;光照補償;背景模型;目標(biāo)檢測

        引言

        在當(dāng)前計算機視覺領(lǐng)域中,視頻或圖像序列中的運動目標(biāo)檢測是一個熱點研究問題,有很重要的實際應(yīng)用價值。常用的運動目標(biāo)檢測方法有光流法(optical flow)[1,2]、幀間差分法(frame difference)[3]和背景減除法(background subtraction)。光流法的算法復(fù)雜度較高、計算量較大;幀間差分法的計算簡單快捷,但容易受限于目標(biāo)的運動速度,難以得到較為完整的目標(biāo)輪廓。背景減除法在一定程度上克服了以上缺點,其基本思路是把當(dāng)前圖像與背景模型相減,從而提取出前景目標(biāo),主要包括背景建模、前景檢測以及背景更新這三個步驟。該方法不會受到運動目標(biāo)速度的限制,能夠利用不同的背景模型處理復(fù)雜場景,有著較為廣泛的應(yīng)用[4],是實現(xiàn)目標(biāo)跟蹤、行為分析、人流統(tǒng)計等實際應(yīng)用的基礎(chǔ)。

        雖然當(dāng)前提出的背景減除方法很多[5],但是并未對所處理圖像中光照是否發(fā)生變化進行判斷,在光照突變場景中的適應(yīng)性較差。針對以上問題,文章在自組織神經(jīng)網(wǎng)絡(luò)背景減除方法[6]的基礎(chǔ)上進行改進,提出了一種基于光照補償?shù)姆椒?,能夠快速適應(yīng)光照突變場景。

        1 方法

        1.1 自組織神經(jīng)網(wǎng)絡(luò)

        Maddalena等人[6]提出了一種基于自組織神經(jīng)網(wǎng)絡(luò)自動生成背景模型的方法(Self-Organizing Background Subtraction,SOBS),并使用改進的神經(jīng)網(wǎng)絡(luò)映射方式,使得神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)更簡單并且學(xué)習(xí)過程更高效。該方法使用的神經(jīng)網(wǎng)絡(luò)是由各個節(jié)點構(gòu)成的一個2維的平面網(wǎng)格,類似于Kohonen[7]提出的SOM(Self-Organizing Maps)神經(jīng)網(wǎng)絡(luò),該模型的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

        圖1 SOBS模型網(wǎng)絡(luò)結(jié)構(gòu)示意圖

        該方法的基本思路如下:將背景模型中的每一個像素點(x,y)都看作由n×n個權(quán)重向量c=(c1,c2,c3,...,c■)組成,其中權(quán)重向量ci=(h,s,v),相比于原始圖像,背景模型擴大了n×n倍。檢測圖像時,若該像素點的背景模型中存在與待檢測像素點匹配的權(quán)重向量cm,則該像素點為背景點,并同時更新權(quán)重向量cm及其鄰域的權(quán)重向量;若不存在匹配的權(quán)重向量,則進一步判斷該像素點是否為陰影區(qū)域,若是陰影則歸為背景點并且不更新權(quán)重向量,否則歸為前景點。

        1.2 光照補償原理

        考慮到光照突變對圖像產(chǎn)生的影響,即相鄰兩幀圖像的色度信息未發(fā)生較大變化,而亮度信息的變化顯著,我們可以通過以下步驟對背景模型進行光照補償。

        (1)首先通過式(1)計算出相鄰兩幀圖像It-1(x,y)和It(x,y)的全局平均亮度值Vt-1和Vt,式中n為圖像中的總像素點數(shù),It(x,y)max(R,G,B)和It(x,y)min(R,G,B)分別表示像素點(x,y)處R,G,B分量中的最大值與最小值。

        (1)

        (2)通過式(2)可以計算出這兩幀圖像間的亮度變化?駐t,當(dāng)?駐t大于預(yù)先設(shè)定的閾值T時,則認(rèn)為當(dāng)前圖像發(fā)生了光照突變;若發(fā)生光照突變,則利用像素點在相鄰兩幀圖像的亮度變化值對背景模型進行光照補償,即通過式(3)對該像素點的背景模型Bt(x,y)進行補償。

        ?駐t=|Vt-Vt-1| (2)

        (3)

        (3)發(fā)生光照突變時,改變背景模型更新的策略,首先進行光照補償,之后利用當(dāng)前幀的信息對背景進行更新,如式(4)所示,其中?茁是此時的背景更新系數(shù)。

        2 實驗結(jié)果與討論

        文章的實驗是在一個包含1546幀圖像的光照突變場景數(shù)據(jù)集中進行測試,實驗結(jié)果如圖2所示,其中圖2(a)是未發(fā)生光照突變的原始圖像,圖2(b)-(d)是發(fā)生光照突變后的原始圖像。從圖2(f)-(h)中可以看出,原始SOBS算法的檢測結(jié)果中存在大面積誤檢區(qū)域,嚴(yán)重影響運動目標(biāo)的檢測效果,如數(shù)據(jù)集中發(fā)生光照突變的第481幀圖像中并不存在運動前景目標(biāo),卻檢測出大量前景像素點,第632幀和第1030幀圖像中的正確前景目標(biāo)被誤檢區(qū)域所覆蓋;從圖2(j)-(l)中可以看出,文章改進的算法在一定程度上克服了光照突變的影響,并且沒有帶來太多額外的計算量,發(fā)生光照突變的第481幀圖像只存在少量的誤檢,第632幀和第1030幀圖像中的前景目標(biāo)被正確檢出。通過以上實驗驗證了文章改進算法的有效性。另外,文章的改進方法是一種通用方法,并不是針對某種特定運動目標(biāo)檢測算法才能進行改進,其光照補償?shù)乃枷胪瑯幽軌驊?yīng)用到其他一些對光照突變場景適應(yīng)能力較弱的算法中。

        (a)數(shù)據(jù)集第385幀 (b)數(shù)據(jù)集第481幀

        (c)數(shù)據(jù)集第632幀 (d)數(shù)據(jù)集第1030幀

        (e)原始SOBS算法 (f)原始SOBS算法

        (g)原始SOBS算法 (h)原始SOBS算法

        (i)改進算法 (j)改進算法

        (k)改進算法 (l)改進算法

        圖2 光照突變場景中原始SOBS算法與改進算法的檢測結(jié)果對比圖

        3 結(jié)束語

        文章針對原始背景減除方法在光照突變場景中存在的問題,提出了一種基于光照補償?shù)母倪M方法。首先分別計算出相鄰兩幀圖像的全局平均亮度值;之后利用這兩幀圖像間的亮度變化判斷當(dāng)前圖像是否發(fā)生光照突變,若發(fā)生則對背景模型進行光照補償,并改變背景模型的更新策略;最后通過實驗驗證了文章改進算法的有效性。

        參考文獻

        [1]J. L. Barron, D. J. Fleet, S. S. Beauchemin. Performance of optical flow techniques[J].International journal of computer vision, 1994,12(1):43-77.

        [2]楊亞東.光流法在運動目標(biāo)識別領(lǐng)域的理論與應(yīng)用[J].電子設(shè)計工程,2013,5:24-26.

        [3]L. Ding, N. Gong. Moving Objects Detection Based on Improved Three Frame Difference[J].Dianshi Jishu(Video Engineering), 2013,37(1):151-153.

        [4]T. Bouwmans, F. Porikli, B. H ferlin, et al., Background Modeling and Foreground Detection for Video Surveillance[M].2014: CRC Press.

        [5]T. Bouwmans. Traditional and recent approaches in background modeling for foreground detection: An overview[J]. Computer Science Review, 2014. 11:31-66.

        [6]L. Maddalena, A. Petrosino. A self-organizing approach to background subtraction for visual surveillance applications[J]. Image Processing, IEEE Transactions on, 2008,17(7):1168-1177.

        [7]T. Kohonen. Self-organization and associative memory. Self-Organization and Associative Memory, 100 figs. XV, 312 pages. Springer-Verlag Berlin Heidelberg New York. Also Springer Series in Information Sciences, volume 8, 1988. 1.

        作者簡介:楊霖(1990-),男,中南大學(xué)地球科學(xué)與信息物理學(xué)院生物醫(yī)學(xué)工程專業(yè)碩士研究生,主要研究領(lǐng)域為計算機圖像處理。

        猜你喜歡
        目標(biāo)檢測
        多視角目標(biāo)檢測與跟蹤技術(shù)的研究與實現(xiàn)
        視頻中目標(biāo)檢測算法研究
        軟件(2016年4期)2017-01-20 09:38:03
        行為識別中的人體運動目標(biāo)檢測方法
        移動機器人圖像目標(biāo)識別
        基于視頻監(jiān)控的運動圖像檢測算法研究
        基于背景建模法的運動目標(biāo)檢測
        基于P3電位的目標(biāo)檢測研究
        科技視界(2016年4期)2016-02-22 13:09:19
        智能視頻技術(shù)在電力系統(tǒng)領(lǐng)域的應(yīng)用
        相關(guān)K分布雜波中擴展目標(biāo)積累檢測性能分析
        基于連通域標(biāo)記的目標(biāo)檢測算法設(shè)計與實現(xiàn)
        亚洲视频观看一区二区| 国产手机在线αⅴ片无码观看| 一本大道香蕉最新在线视频| 欧美人与动牲交a精品| japanesehd中国产在线看| 在线视频一区二区亚洲| 青青草视频在线观看入口| 久久精品国产亚洲av香蕉| 男女18禁啪啪无遮挡| 人妻无码中文专区久久AV| 久久久精品国产亚洲av网麻豆| 美女人妻中出日本人妻| 亚洲熟妇av一区二区三区 | 在线观看午夜亚洲一区| 亚洲精品成人av一区二区| 亚洲精品中文字幕乱码二区| 极品尤物在线精品一区二区三区| 无码人妻丰满熟妇区免费| 性一交一乱一伧国产女士spa| 国产成+人+综合+亚洲专| 亚洲精品综合久久中文字幕| 久久一区二区国产精品| 亚洲精品无码高潮喷水a片软| 精品久久久久久国产| 日韩在线手机专区av| 国产自拍偷拍精品视频在线观看| 精品国产一区二区三区av片 | 国产在线观看精品一区二区三区| 中文字幕精品亚洲字幕| 欧美a级毛欧美1级a大片免费播放 国产一区二区女内射 | 国产精品极品美女自在线观看免费| 国产成人无码免费网站| 久久99老妇伦国产熟女高清| 日本一级二级三级不卡| 韩日午夜在线资源一区二区| 日韩一区二区肥| 亚洲激情视频在线观看a五月| 精品综合久久久久久888蜜芽| 亚洲女人被黑人巨大进入| 国产精品成人久久一区二区| 人妻久久久一区二区三区蜜臀|