亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于特征點(diǎn)光流聚類的復(fù)雜背景中運(yùn)動(dòng)車輛檢測(cè)

        2016-11-23 10:02:45李忠海李建偉
        關(guān)鍵詞:光流角點(diǎn)聚類

        李忠海,李建偉

        (沈陽(yáng)航空航天大學(xué)自動(dòng)化學(xué)院,沈陽(yáng) 110136)

        基于特征點(diǎn)光流聚類的復(fù)雜背景中運(yùn)動(dòng)車輛檢測(cè)

        李忠海,李建偉

        (沈陽(yáng)航空航天大學(xué)自動(dòng)化學(xué)院,沈陽(yáng)110136)

        為了準(zhǔn)確、快速的在動(dòng)態(tài)場(chǎng)景中對(duì)運(yùn)動(dòng)車輛進(jìn)行檢測(cè),提出一種基于特征點(diǎn)光流聚類的車輛檢測(cè)方法;該方法取Harris角點(diǎn)為車輛特征量,通過(guò)特征點(diǎn)匹配來(lái)剔除一些沒(méi)有運(yùn)動(dòng)的干擾角點(diǎn),然后對(duì)剩余的特征點(diǎn)做光流提取并利用模糊U鄰域(FUNN)聚類算法實(shí)現(xiàn)光流的聚類,從而剔除噪音、孤立點(diǎn)和不感興趣樣本實(shí)現(xiàn)前景和背景的分離,最后通過(guò)設(shè)定閾值判斷前景目標(biāo)是否是車輛;實(shí)驗(yàn)結(jié)果證明在復(fù)雜的動(dòng)態(tài)場(chǎng)景中該算法對(duì)遮擋、光照變化、陰影處理等有很好的魯棒性,相較于其他算法具有更高的車輛識(shí)別率。

        特征提??;光流法;FUNN聚類;車輛檢測(cè)

        0 引言

        目前,關(guān)于車輛檢測(cè)的算法有很多,常用的算法主要有幀差法、背景減法和光流法[13]。上述幾種算法在理想情況下都能成功檢測(cè)到運(yùn)動(dòng)車輛,但是在實(shí)際生活中,由于目標(biāo)車輛所處環(huán)境復(fù)雜、背景多變,使的車輛的檢測(cè)變的比較復(fù)雜,主要表現(xiàn)在以下幾點(diǎn):目標(biāo)遮擋、光照變化、陰影等。本文中提出的特征點(diǎn)光流聚類算法在復(fù)雜的場(chǎng)景下能有效的抑制遮擋、光照變化、陰影等干擾因素帶來(lái)的影響,提高車輛檢測(cè)的準(zhǔn)確率和效率,非常適用于交通監(jiān)控中的車輛檢測(cè)。

        1 算法流程

        1.1Harris角點(diǎn)提取

        為了避免遮擋、光照變化等干擾因素的影響,我們需要在視頻序列中提取車輛不變特征量來(lái)實(shí)現(xiàn)車輛的檢測(cè)。由于選擇特征的可靠性直接影響算法的準(zhǔn)確率和效率,因此選擇合適的特征量是非常有必要的。通常,我們會(huì)選擇提取圖像序列中的直線或點(diǎn)作為特征量。提取直線的常用方法是隨機(jī)Hough變換,而提取點(diǎn)的常用方法有邊緣檢測(cè)、角點(diǎn)檢測(cè)等。本文針對(duì)交通監(jiān)控視頻的特點(diǎn)選擇Harris角點(diǎn)作為特征量[45]。

        Harris角點(diǎn)的檢測(cè)算法如下:

        式(1)和式(2)為Harris角點(diǎn)檢測(cè)的像素相關(guān)函數(shù)。其中I為圖像的像素矩陣,w為減少噪聲的平滑窗口函數(shù),(x,y)為相應(yīng)圖像的像素坐標(biāo)。I(x,y)為(x,y)點(diǎn)像素值,IxIy分別為圖像中像素在水平方向和垂直方向上的一階偏微分,I2xIy2分別為圖像中像素在水平和垂直方向上的二階偏微分,(u,v)為圖像中像素偏移坐標(biāo)。最后,計(jì)算角點(diǎn)響應(yīng)函數(shù)R,從而得到圖像角點(diǎn)。

        R=λ1λ2-k(λ1+λ2)2(k∈[0,0.06])(3)λ1,λ2為矩陣M的特征值。k為經(jīng)驗(yàn)值。

        Harris角點(diǎn)檢測(cè)運(yùn)用于車輛檢測(cè)中起到了很好的效果,并且Harris角點(diǎn)對(duì)于光照變化和遮擋等干擾因素有很好的魯棒性。圖1為對(duì)視頻序列中第89、90幀圖像提取Harris角點(diǎn)后的圖像。

        1.2角點(diǎn)匹配去干擾

        由圖1可以看出,Harris角點(diǎn)能很好的反映車輛的特征信息,但是也有很多與車輛無(wú)關(guān)的角點(diǎn)被檢測(cè)出來(lái),在對(duì)車輛進(jìn)行識(shí)別時(shí)有很大的干擾作用。為了去除那些與車輛無(wú)關(guān)的角點(diǎn),利用相鄰視頻幀的相關(guān)性來(lái)去除一些無(wú)運(yùn)動(dòng)的角點(diǎn)。

        首先,從視頻序列中提取兩幀視頻,分別對(duì)兩幀圖像做角點(diǎn)檢測(cè)(如圖1),將圖(a)中角點(diǎn)集合記為E1,圖(b)中角點(diǎn)集合記為E2。然后對(duì)E 1中角點(diǎn)進(jìn)行判斷,看其在E 2中是否依然存在,若存在則說(shuō)明是無(wú)運(yùn)動(dòng)的角點(diǎn),將其刪掉。若在E 2中不存在,則保留。同樣,對(duì)以后的視頻幀進(jìn)行相同的處理。對(duì)圖1中 (a)圖做去除無(wú)運(yùn)動(dòng)角點(diǎn)處理后的圖片如圖2所示。

        圖1 第89、90幀圖像做Harris角點(diǎn)提取結(jié)果

        圖2 圖1(a)去除無(wú)運(yùn)動(dòng)角點(diǎn)結(jié)果圖

        1.3特征點(diǎn)光流提取

        本文采用金字塔Lucas-Kanade光流法對(duì)圖2中特征點(diǎn)進(jìn)行光流提?。?10]。

        算法流程如下:首先,對(duì)金字塔最上層圖像的光流做出計(jì)算,根據(jù)計(jì)算結(jié)果求出次上層光流的初始值,然后再估算次上層光流的實(shí)際值。最后,再用次上層的光流結(jié)果估算其下一層的光流初始值,估算其實(shí)際值后再利用其值計(jì)算下一層的光流值,直至金字塔的最底層。光流提取結(jié)果如圖2所示。

        圖3 圖2中角點(diǎn)的光流場(chǎng)

        1.4光流聚類

        通過(guò)計(jì)算Harris角點(diǎn)的光流場(chǎng),可以得到光流鏈和角點(diǎn)鏈,由于同一個(gè)目標(biāo)角點(diǎn)的光流近似相同,不同目標(biāo)的角點(diǎn)光流都不相同,可以先對(duì)光流鏈進(jìn)行一次聚類,然后再根據(jù)同一目標(biāo)上的角點(diǎn)分布規(guī)律再對(duì)角點(diǎn)進(jìn)行一次空間聚類[1112]。

        本文采取模糊U鄰域聚類算法(FUNN)對(duì)角點(diǎn)光流進(jìn)行聚類分析,在通過(guò)對(duì)聚類的面積大小設(shè)定閾值來(lái)判斷聚類類別是否為車輛。

        模糊U鄰域聚類算法(FUNN)是基于數(shù)據(jù)集特征的模糊特征軟性聚類,具體的算法步驟如下:

        首先給控制參數(shù)賦值并初始化聚類的中心和個(gè)數(shù)。設(shè)定聚類的中心個(gè)數(shù)為C、類中最小的隸屬度閾值為θU、類中最小的特征點(diǎn)個(gè)數(shù)百分比為θN、最大迭代次數(shù)為I、模糊權(quán)重系數(shù)m=2.0、當(dāng)前的迭代次數(shù)l=0。參數(shù)設(shè)定完畢后計(jì)算隸屬度矩陣U和聚類中心V。

        然后通過(guò)下面兩式來(lái)計(jì)算特征點(diǎn)的隸屬度矩陣和聚類中心。上式中,,若dij=0,則使uij=1,且當(dāng)i≠j時(shí),uij=0。

        上式中K為特征點(diǎn)總個(gè)數(shù),uij為隸屬度系數(shù),xi為第i個(gè)特征點(diǎn)。

        若uij>uik,k=1,2,3,.....,C且j≠k,則xi∈Sj。并且當(dāng)某個(gè)類中的特征點(diǎn)數(shù)目不大于θN,則把此類除掉,并把類中的特征點(diǎn)重新分類。將其與剩下的一些未進(jìn)行分類的特征點(diǎn),重新組建一個(gè)新的集合。將新的集合送入基于統(tǒng)計(jì)信息的聚類算法模型中,設(shè)置初始聚類數(shù)C=1,輸出結(jié)果為新類的類中心vnew。如果對(duì)新類的隸屬度不小于θU的特征點(diǎn)數(shù)不少于θN,則增加新類。

        該算法采用FCM算法更新聚類中心和隸屬度矩陣,保證了分類的準(zhǔn)確性。采用U鄰域思想對(duì)隸屬度系數(shù)進(jìn)行約束,可以剔除噪音和孤立點(diǎn);對(duì)類內(nèi)樣本數(shù)目進(jìn)行約束,可以控制類的規(guī)模;通過(guò)建立補(bǔ)充新類模型,可以避免初始聚類中心的個(gè)數(shù)不能完整表述特征點(diǎn)類別的可能。

        對(duì)上文中特征點(diǎn)光流場(chǎng)利用該聚類算法進(jìn)行分類后,用最小的且包含類中所用特征點(diǎn)的矩形將類標(biāo)記出來(lái),然后計(jì)算矩形的面積,設(shè)定面積閾值,通過(guò)矩形面積與設(shè)定的面積閾值相比較去掉一些不是車輛的類。得到結(jié)果圖如圖4所示。

        圖4 車輛檢測(cè)結(jié)果

        由圖4可以看出,一些噪音、孤立點(diǎn)和不感興趣的特征點(diǎn)可以被有效的剔除掉。當(dāng)設(shè)定的面積閾值太小時(shí),算法可能把行人也判斷成車輛,從而造成誤檢。而如果把閾值設(shè)的太大,也可能造成遠(yuǎn)處的車輛無(wú)法識(shí)別。因此閾值的設(shè)定是算法中關(guān)鍵的環(huán)節(jié)。但是總體來(lái)說(shuō),算法的分類準(zhǔn)確性、穩(wěn)定性和自適應(yīng)能力還是比較強(qiáng)的,對(duì)于目標(biāo)遮擋、陰影、光照變化等產(chǎn)生的影響具有很好的魯棒性。

        2 實(shí)驗(yàn)和數(shù)據(jù)分析

        本文中采用三段經(jīng)典的運(yùn)動(dòng)車輛視頻對(duì)本文算法進(jìn)行實(shí)驗(yàn)驗(yàn)證。視頻(a)中車輛的種類不同,大小不一,路邊樹(shù)木等干擾因素較少。視頻(b)中車道是橫向的,是從高空俯拍的視頻,車輛較小且車輛行駛緩慢,識(shí)別難度較大。視頻(c)中車輛的個(gè)數(shù)比較少,視頻中也幾乎沒(méi)有什么干擾因素。視頻的數(shù)據(jù)參數(shù)如表一所示,視頻截圖及視頻數(shù)據(jù)如圖5所示。

        圖5 實(shí)驗(yàn)視頻截圖及視頻數(shù)據(jù)

        對(duì)三段視頻進(jìn)行車輛識(shí)別分析,本文比較混合高斯背景建模[13]、改進(jìn)的幀間差分算法[14]以及本文算法幾種算法的檢測(cè)結(jié)果如表2所示。

        表2 實(shí)驗(yàn)視頻車輛檢測(cè)結(jié)果

        由上述的實(shí)驗(yàn)結(jié)果可知,對(duì)于視頻(c),3種算法的車輛識(shí)別率差不多,但在復(fù)雜的背景環(huán)境下(視頻(a)和視頻(b)),本文算法具有更高的車輛識(shí)別率。

        3 結(jié)束語(yǔ)

        本文中提到的基于特征點(diǎn)光流聚類的運(yùn)動(dòng)車輛檢測(cè)算法,利用對(duì)Harris角點(diǎn)做光流提取,并利用FUNN聚類算法對(duì)特征點(diǎn)光流做聚類分析,有效避免了遮擋和光照變化對(duì)車輛檢測(cè)帶來(lái)的影響,并且提高了在動(dòng)態(tài)背景下對(duì)運(yùn)動(dòng)車輛的識(shí)別率,非常適用于交通監(jiān)控中的車輛檢測(cè)。但是由于算法沒(méi)有考慮視頻圖像的尺度變化,使得算法在對(duì)較遠(yuǎn)車輛或在視頻圖像中較小的車輛目標(biāo)進(jìn)行檢測(cè)時(shí)有可能出現(xiàn)漏判或誤判。

        [1]Y Fan.A real-time algorithm of dynamic background extraction in image sequence[A].Proc.4th IEEE Int.Conf.on Machine Learning and Cybernetics[C],Guangzhou:IEEE,2005,4997 5000.

        [2]Takatoo M,Kitamura T,Okuyama Y,et al.Traffic flow measuring system using image processing[A].Proc.SPIE 1197,Automated Inspection and High-Speed Vision Architectures III[C],Philadelphia:SPIE Digital Library,1989,172-180.

        [3]Hsieh J W,Yu S H,Chen Y S,et al.Automatic traffic surveillance system for vehicle tracking and classification[J].IEEE Transactions on Intelligent Transportation Systems,2006,7(2):175- 187.

        [4]龔平,劉相濱,周鵬.一種改進(jìn)的Harris角點(diǎn)檢測(cè)算法[J].計(jì)算機(jī)工程與應(yīng)用,2010,46(11):173-175.

        [5]徐偉,王朔中.基于視頻圖像Harris角點(diǎn)檢測(cè)的車輛測(cè)速 [J].中國(guó)圖像圖形學(xué)報(bào),2006,11(11):1650-652.

        [6]胡金金.基于光流法的運(yùn)動(dòng)目標(biāo)快速跟蹤算法研究[D].西安:西安電子科技大學(xué),2014.

        [7]李喜來(lái),李艾華,白向峰.智能交通系統(tǒng)運(yùn)動(dòng)車輛的光流法檢測(cè)[J].光電技術(shù)應(yīng)用,2010,25(2):75-78.

        [8]胡覺(jué)暉,李一民,潘曉露.改進(jìn)的光流法用于車輛識(shí)別與跟蹤[J].科學(xué)技術(shù)與工程,2010,10(23):5814-5817.

        [9]陳聰,朱煜,肖玉玲,等.一種有效的車輛跟蹤算法與異常車輛檢測(cè)[J].華東理工大學(xué)學(xué)報(bào)(自然科學(xué)版),2015,41(2):205-209.

        [10]高磊.基于光流的動(dòng)態(tài)場(chǎng)景中運(yùn)動(dòng)車輛檢測(cè)與跟蹤算法研究[D].合肥:中國(guó)科學(xué)技術(shù)大學(xué),2014.

        [11]裴巧娜.基于光流法的運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤技術(shù)[D].北京:北方工業(yè)大學(xué),2009.

        [12]孫季豐,王成清.基于特征點(diǎn)光流和卡爾曼濾波的運(yùn)動(dòng)車輛跟蹤[J].2005,33(10):19-23.

        [13]韓明,劉教民,孟軍英,等.一種自適應(yīng)調(diào)整K-r的混合高斯背景建模和目標(biāo)檢測(cè)算法[J].電子與信息學(xué)報(bào),2014,36(8):2023-2027.

        [14]王振亞,曾黃麟.一種基于幀間差分和光流技術(shù)結(jié)合的運(yùn)動(dòng)車輛檢測(cè)和跟蹤新算法[J].計(jì)算機(jī)應(yīng)用與軟件,2012,29(5):117-129.

        Moving Vehicle Detection in Complicated Background Based on Optical Flow of Feature Points

        Li Zhonghai,Li Jianwei
        (School of Automation,Shenyang Aerospace University,Shenyang110136,China)

        In order to detecting the moving vehicles accurately and fast in dynamic scene,this paper proposes a vehicle detection method based on optical flow clustering of feature points.Harris corner points are chosen to form a feature vector of vehicles in this method.We remove the interference corner points that are not moving based on feature matching.Then we extract the optical flow of the feature points. we remove the acnode noise and non-interesting samples and realize the separation of foreground and background by the Fuzzy U Nearest neighbor Adaptive Clustering of the optical flow.Finally,we determine whether the foreground is a vehicle by setting the threshold.The experimental results show that this algorithm is good to cover,illumination and shadow.It has a high recognition rate to vehicles in complex dynamic scene.

        feature extraction;optical flow;FUNN clustering;vehicle detection

        1671-4598(2016)05-0234-03

        10.16526/j.cnki.11-4762/tp.2016.05.066

        TP391

        A

        2015-11-19;

        2015-12-22。

        李忠海(1962-),男,遼寧沈陽(yáng)人,教授,碩士生導(dǎo)師,主要從事圖像處理、計(jì)算機(jī)視覺(jué)方向的研究。

        猜你喜歡
        光流角點(diǎn)聚類
        利用掩膜和單應(yīng)矩陣提高LK光流追蹤效果
        基于物理學(xué)的改善粒子圖像測(cè)速穩(wěn)健光流方法研究
        基于FAST角點(diǎn)檢測(cè)算法上對(duì)Y型與X型角點(diǎn)的檢測(cè)
        基于DBSACN聚類算法的XML文檔聚類
        基于邊緣的角點(diǎn)分類和描述算法
        電子科技(2016年12期)2016-12-26 02:25:49
        基于圓環(huán)模板的改進(jìn)Harris角點(diǎn)檢測(cè)算法
        基于改進(jìn)的遺傳算法的模糊聚類算法
        一種層次初始的聚類個(gè)數(shù)自適應(yīng)的聚類方法研究
        融合光流速度場(chǎng)與背景差分的自適應(yīng)背景更新方法
        自適應(yīng)確定K-means算法的聚類數(shù):以遙感圖像聚類為例
        久久久国产精品123| 久久99精品免费一区二区| 欧美zozo另类人禽交| 男女一区视频在线观看| 强奸乱伦影音先锋| 亚洲av麻豆aⅴ无码电影| 欧美视频第一页| 亚洲一区二区三区美女av| 精品国产亚洲av高清大片| 中文在线8资源库| 波多野结衣中文字幕在线视频| 日韩精品一区二区三区中文9| 北条麻妃在线中文字幕| 日本肥老妇色xxxxx日本老妇| 中文字幕精品无码一区二区| 精品视频在线观看一区二区三区| 精品人妻在线一区二区三区在线 | 无遮挡18禁啪啪羞羞漫画| 无码人妻丰满熟妇啪啪7774| 最新手机国产在线小视频| 九七青青草视频在线观看| 午夜射精日本三级| 奇米影视久久777中文字幕| 久久久久久国产福利网站| 丝袜美腿国产一区二区| 国产伦精品免编号公布| 99久久久无码国产精品9| 成年女人18毛片毛片免费| 日本熟女人妻一区二区| 人妻丰满熟妇av无码区不卡| 欧美国产日本精品一区二区三区| 国产剧情亚洲一区二区三区| 中文字幕日韩精品有码视频| 男人边吻奶边挵进去视频| 福利片免费 亚洲| 美女人妻中出日本人妻| 少妇人妻陈艳和黑人教练| 国产欧美日韩在线观看一区二区三区| 亚洲大胆美女人体一二三区| 亚洲色精品三区二区一区| 乌克兰少妇xxxx做受6|