亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于匹配分布和混合高斯模型的車(chē)輛檢測(cè)算法

        2013-10-15 06:50:08戴夏強(qiáng)周大可
        關(guān)鍵詞:背景區(qū)域檢測(cè)

        戴夏強(qiáng), 周大可, 鹿 樂(lè)

        (1. 南京航空航天大學(xué) 自動(dòng)化學(xué)院, 南京 210016; 2. 中國(guó)兵器北方信息控制集團(tuán)有限公司, 南京 211153)

        0 引 言

        隨著生活條件的改善, 汽車(chē)進(jìn)入了越來(lái)越多的家庭, 智能交通的概念正是在交通狀況日益惡化的條件下提出的。其中運(yùn)動(dòng)目標(biāo)檢測(cè)是智能交通的關(guān)鍵步驟, 準(zhǔn)確性高的運(yùn)動(dòng)目標(biāo)檢測(cè)有利于后續(xù)的車(chē)輛特征提取、 目標(biāo)跟蹤等步驟。常用的運(yùn)動(dòng)目標(biāo)檢測(cè)方法主要有光流法、 背景差分法、 幀間差分法和特征檢測(cè)法等。其中背景差分法廣為使用。

        背景差分法[1-5]一般分為兩種: 自適應(yīng)方法和非自適應(yīng)方法。非自適應(yīng)方法主要有人工選擇、 逐像素點(diǎn)投票法和均值搜索算法等。但非自適應(yīng)方法由于計(jì)算復(fù)雜和需要人工的初始化等因素逐漸被舍棄。自適應(yīng)方法主要有隱馬爾科夫模型法[5]、 卡曼濾波法[6]、α混合法[7]和高斯混合法[8]等。α混合法最簡(jiǎn)單、 速度最快, 但檢測(cè)緩慢運(yùn)動(dòng)目標(biāo)的效果較差, 并且它和卡曼濾波一樣不能解決背景多模態(tài)的問(wèn)題。隱馬爾科夫模型法雖然能解決背景的多樣變化性問(wèn)題, 如燈光的亮和暗, 但計(jì)算量太大, 不適宜用于實(shí)時(shí)的車(chē)輛檢測(cè)中。而Stauffer等[2]提出的混合高斯模型(GMM: Gaussian Mixture Model)是建立背景較常見(jiàn)和成功的方法之一, 主要由于它能很好地適應(yīng)背景的多態(tài)性和緩慢變化性, 并且計(jì)算簡(jiǎn)單, 特別是Grimson等[1]提出的背景更新方程迭代的方法使背景的學(xué)習(xí)更加簡(jiǎn)單高效。它主要對(duì)每個(gè)像素點(diǎn)、 每幀都建立一個(gè)混合高斯方程, 通過(guò)學(xué)習(xí), 確定點(diǎn)屬于前景或背景, 但它也有一些開(kāi)放性的問(wèn)題, 如不穩(wěn)定的背景、 移動(dòng)緩慢的穩(wěn)定前景、 光照的突變和陰影等, 這些問(wèn)題比較典型。目前很多人針對(duì)GMM提出了一些改進(jìn)的方法, 李全民等[9]把背景重構(gòu)和前景消融世間控制機(jī)制整合到傳統(tǒng)自適應(yīng)混合高斯背景模型中, 提高了運(yùn)動(dòng)分割的質(zhì)量; 李偉等[10]提出根據(jù)統(tǒng)計(jì)每個(gè)像素每個(gè)模型被匹配的次數(shù), 為每個(gè)像素分配一個(gè)學(xué)習(xí)率, 并且在線(xiàn)更新學(xué)習(xí)率; 馬義德等[11]針對(duì)模型收斂較慢和檢測(cè)大而慢的運(yùn)動(dòng)物體效果不理想的缺點(diǎn), 提出對(duì)均值和方差的更新采用不同的學(xué)習(xí)率和引入權(quán)值均值的概念。

        筆者充分考慮到車(chē)輛運(yùn)動(dòng)的連續(xù)性和空間性以及每幀的檢測(cè)結(jié)果, 提出了一種基于匹配度分布的混合高斯車(chē)輛檢測(cè)算法。該算法兼顧時(shí)間性和空間性, 通過(guò)實(shí)驗(yàn)有效地證明了該算法在不穩(wěn)定的背景、 移動(dòng)緩慢的穩(wěn)定前景、 光照突變的問(wèn)題上有較高的魯棒性, 并且復(fù)雜度沒(méi)有太大增加, 很適合用于車(chē)輛的實(shí)時(shí)檢測(cè)。

        1 ROI提取

        在車(chē)輛檢測(cè)中, 人們一般使用背景差分法提取ROI(Region of Interest)。因此, 首先要進(jìn)行背景建模, 常用的背景建模方法是高斯混合模型, 檢測(cè)動(dòng)目標(biāo)的區(qū)域, 然后對(duì)該區(qū)域進(jìn)行形態(tài)學(xué)濾波、 連通性分析和陰影消除等后續(xù)處理, 最后可以提取車(chē)輛區(qū)域。

        1.1 高斯混合模型

        在統(tǒng)計(jì)模式識(shí)別中, 高斯混合模型可用于對(duì)多變量數(shù)據(jù)進(jìn)行建模, 得到數(shù)據(jù)的近似分布。Grimson等[1]提出了高斯混合法對(duì)顏色特征建模, 可把每個(gè)像素點(diǎn)看作為K個(gè)高斯的混合分布, 因此, 要得到每個(gè)像素點(diǎn)的混合高斯概率分布, 只需其概率密度函數(shù)滿(mǎn)足

        (1)

        (2)

        其中μk,Σk分別是第k個(gè)高斯模型的均值向量和協(xié)方差矩陣, 即θk=[μk,Σk]。

        1.2 模型參數(shù)估計(jì)

        在高斯混合模型參數(shù)估計(jì)中, 由于樣本沒(méi)有類(lèi)別標(biāo)記, 為不完全樣本, 因此不能采用最大似然估計(jì)的方法估計(jì)參數(shù), 通常采用期望最大化算法EM(Expectation Maximization)進(jìn)行參數(shù)估計(jì)[12]。但對(duì)像全天候不斷變化的交通道路, 要不斷采樣變化的樣本, 如果使用EM方法不停地估計(jì)高斯混合模型的參數(shù), 則會(huì)導(dǎo)致計(jì)算的重復(fù)性, 增加數(shù)據(jù)處理的負(fù)擔(dān), 無(wú)法滿(mǎn)足視頻中車(chē)輛檢測(cè)的實(shí)時(shí)性。因此, Grimson等[1]提出了自適應(yīng)混合高斯背景模型算法。該算法可進(jìn)行迭代更新, 計(jì)算簡(jiǎn)便, 成功地解決了背景變化對(duì)目標(biāo)檢測(cè)的干擾, 能有效地抑制緩慢光照變化, 滿(mǎn)足了視頻監(jiān)控的實(shí)時(shí)性要求。

        (3)

        其中α和ρ都是學(xué)習(xí)率,α可初始化為一個(gè)常量,ρ=α/ωi,t,Mi,t為匹配標(biāo)志函數(shù)。

        (4)

        要進(jìn)行參數(shù)更新, 匹配準(zhǔn)則必須滿(mǎn)足

        |Xt-μi,t-1|≤Dσi,t-1

        (5)

        其中D為參數(shù), 一般取2,μi,t-1和σi,t-1為第i個(gè)像素點(diǎn)t-1時(shí)刻的第k個(gè)單高斯函數(shù)的參數(shù)。

        1.3 車(chē)輛目標(biāo)的分離

        按照式(3)~(5)可得到K個(gè)高斯分布, 按照從大到小的原則進(jìn)行排列, 最有可能代表背景的是前B個(gè)高斯分布, 取背景高斯分布的準(zhǔn)則如下

        (6)

        其中T為權(quán)重閥值,ωk是高斯的權(quán)值。

        根據(jù)式(1)得到背景圖像, 根據(jù)式(5)比較像素和K個(gè)高斯分量之間的關(guān)系, 可得到動(dòng)目標(biāo)的前景區(qū)域[9], 再通過(guò)對(duì)前景圖像的進(jìn)一步處理, 包括陰影消除、 形態(tài)學(xué)濾波, 可得到車(chē)輛的區(qū)域。由于在開(kāi)始背景學(xué)習(xí)的過(guò)程中, 像素的權(quán)值較小, 因此, 模型的學(xué)習(xí)率較大, 車(chē)輛區(qū)域像素值很容易被更新到背景的模型中; 當(dāng)車(chē)輛區(qū)域較大、 顏色紋理較均勻并且速度較慢時(shí), 車(chē)輛區(qū)域像素在背景學(xué)習(xí)的過(guò)程中會(huì)占據(jù)較大的權(quán)值, 進(jìn)而會(huì)誤認(rèn)為車(chē)輛一部分區(qū)域?yàn)楸尘皡^(qū)域, 很容易在檢測(cè)的過(guò)程中導(dǎo)致車(chē)輛的斷裂, 誤認(rèn)為多輛車(chē), 對(duì)于后續(xù)的操作產(chǎn)生不良影響。因此, 傳統(tǒng)的背景模型的學(xué)習(xí)有很大的弊端。

        2 模型學(xué)習(xí)的改進(jìn)及目標(biāo)的檢測(cè)

        Stauffer等[2]的方法在背景初始化后通過(guò)迭代的方法可收斂到一個(gè)估計(jì)的背景。在目標(biāo)檢測(cè)的過(guò)程中, 背景越是穩(wěn)定和準(zhǔn)確, 目標(biāo)的檢測(cè)則越好。但對(duì)于面積大、 車(chē)速較慢、 顏色較均勻的車(chē)輛, 用傳統(tǒng)的方法很容易把車(chē)輛的顏色信息納入到背景的混合高斯模型中, 這樣很容易造成車(chē)輛檢測(cè)的斷裂或沒(méi)有檢測(cè)出車(chē)輛的問(wèn)題。所以筆者把檢測(cè)目標(biāo)的空間信息引入到高斯混合模型的學(xué)習(xí)中, 充分利用前一幀每個(gè)像素鄰域的匹配信息, 構(gòu)建一個(gè)匹配分布函數(shù), 改變學(xué)習(xí)規(guī)則, 對(duì)模型進(jìn)行選擇性學(xué)習(xí), 既提高了背景區(qū)域模型的穩(wěn)定性, 同時(shí)又提高了車(chē)輛區(qū)域背景模型的準(zhǔn)確性。車(chē)輛區(qū)域檢測(cè)過(guò)程如圖1所示。

        圖1 車(chē)輛區(qū)域檢測(cè)流程

        2.1 含有鄰域信息的匹配度分布

        為得到含有鄰域信息的匹配分布, 必須知道前一幀車(chē)輛檢測(cè)的初步結(jié)果, 因?yàn)樵谲?chē)輛圖像中, 車(chē)輛的前景是以塊產(chǎn)生的, 一個(gè)像素的匹配受到該像素鄰域像素點(diǎn)匹配的影響[13]; 在背景區(qū)域, 背景像素匹配度明顯大于車(chē)輛區(qū)域或車(chē)輛邊緣區(qū)域, 引入鄰域信息加強(qiáng)了匹配度的區(qū)域一致性, 同時(shí)減少了邊緣以及噪聲對(duì)點(diǎn)匹配度的干擾, 在這里定義一個(gè)匹配分布函數(shù)

        (7)

        (8)

        2.2 背景更新策略

        傳統(tǒng)的更新參數(shù)的高斯混合模型在背景初始化階段能產(chǎn)生很好的檢測(cè)效果, 但在參數(shù)更新的過(guò)程中使用迭代的方法會(huì)使更新很慢。由于自適應(yīng)混合高斯模型的學(xué)習(xí)率普遍采用ρ=α/ωi,t(使用β=αη(It(x,y)|μi,t,σi,t) 計(jì)算量較大), 隨著時(shí)間的增長(zhǎng), 權(quán)重較大的像素點(diǎn)的學(xué)習(xí)率很小, 所以保證了背景的穩(wěn)定性; 權(quán)重較小的像素點(diǎn)的學(xué)習(xí)率較高, 這樣可以適應(yīng)背景像素點(diǎn)的變化, 增加了背景的準(zhǔn)確性。但當(dāng)大而且速度慢的車(chē)輛進(jìn)入時(shí), 就會(huì)導(dǎo)致車(chē)輛成分融入到背景中, 造成誤檢。因此, 對(duì)車(chē)輛圖像, 在分析前幾幀的檢測(cè)結(jié)果基礎(chǔ)上, 計(jì)算其匹配度分布, 調(diào)整該像素的學(xué)習(xí)率, 降低不大可能屬于背景點(diǎn)的學(xué)習(xí)率, 同時(shí)增加背景像素的學(xué)習(xí)率, 以便提高復(fù)雜情況下車(chē)輛的檢測(cè)。

        具體的更新步驟如下。

        1) 高斯模型初始化。由于筆者的背景更新中涉及的匹配分布依賴(lài)于前幾幀的車(chē)輛檢測(cè)結(jié)果, 背景初始化的準(zhǔn)確性影響到后續(xù)的檢測(cè)效果, 因此筆者采用模糊c均值聚類(lèi)算法。首先對(duì)前面的多幀圖像進(jìn)行聚類(lèi), 選定類(lèi)別數(shù), 有限地判斷每個(gè)像素的初始均值、 方差。假設(shè)圖像中每個(gè)像素點(diǎn)有M個(gè)樣本, 再把每個(gè)像素點(diǎn)的樣本分成c類(lèi), 定義一個(gè)損失函數(shù)

        (9)

        其中uij代表在第i類(lèi)的第j個(gè)樣本xj的友好度,vi是第i類(lèi)的中心, 參數(shù)m是聚類(lèi)的模糊度, 一般取值為2。

        (10)

        (11)

        模糊c均值聚類(lèi)可用迭代的方法收斂到一個(gè)合適的值, 當(dāng)屬于原本該類(lèi)的像素點(diǎn)取得高友好度、 而不屬于該類(lèi)的像素點(diǎn)取得低友好度時(shí), 損失函數(shù)取得最小值。最后聚類(lèi)類(lèi)別數(shù)目就是混合高斯成分的數(shù)目, 每類(lèi)的均值和方差對(duì)應(yīng)于每個(gè)單高斯的均值和方差, 每個(gè)單高斯的權(quán)值為每類(lèi)別樣本數(shù)目在總數(shù)目的權(quán)值。

        3) 光照突變影響的克服。假定車(chē)輛實(shí)時(shí)現(xiàn)場(chǎng)像素點(diǎn)的變化是連續(xù)變化的, 傳統(tǒng)的高斯混合模型沒(méi)有解決常見(jiàn)的光照突變問(wèn)題。由于車(chē)輛移動(dòng)和背景像素點(diǎn)變化是連續(xù)的, 所以圖像序列匹配度分布的變化也是連續(xù)的。當(dāng)某幀某個(gè)區(qū)域光照突然發(fā)生變化(例如車(chē)燈突然打開(kāi))時(shí), 傳統(tǒng)混合高斯很容易把照亮區(qū)域檢測(cè)為車(chē)輛區(qū)域, 并且把照亮區(qū)域融入到背景的學(xué)習(xí)中, 鑒于該區(qū)域匹配度變化的連續(xù)性, 選用下面的更新策略。

        2.3 前景的確定與噪聲點(diǎn)去除

        對(duì)前景的確定筆者選擇Stauffer的思想, 循環(huán)計(jì)算像素點(diǎn)有序高斯分布的權(quán)值之和, 按照閾值法生成背景圖像。該實(shí)驗(yàn)中T=0.8。有了背景圖像, 再通過(guò)背景差分法得到前景圖像, 此時(shí)得到的前景中包括運(yùn)動(dòng)目標(biāo)區(qū)域和噪聲點(diǎn)。檢測(cè)的目標(biāo)區(qū)域包含陰影部分, 所以要準(zhǔn)確提取車(chē)輛, 必須去除陰影。目前普遍采用的方法是色彩空間法[15], 基于HSV的色彩空間信息的陰影檢測(cè)算法屬于非模型類(lèi), 采用該方法是因?yàn)镠SV色彩模型非常符合人對(duì)顏色的視覺(jué)感知的生理特性, 而且能更精確地反映一些灰度信息和色彩信息, 特別對(duì)圖像中極亮和極暗的物體, 也能反應(yīng)出相應(yīng)的信息。背景在被陰影遮擋前后利用兩個(gè)色彩分量(顏色H(Hue)和飽和度S(Saturation))的變化量之比近似不變的特性進(jìn)行陰影檢測(cè), 檢測(cè)物體的陰影, 從而達(dá)到去陰影的目的。

        傳統(tǒng)的噪聲點(diǎn)分為孤立噪聲點(diǎn)和車(chē)輛區(qū)域內(nèi)部噪聲點(diǎn)。對(duì)于孤立噪聲點(diǎn), 這里用連通性分析, 計(jì)算其面積。由于車(chē)輛區(qū)域是以塊產(chǎn)生的, 車(chē)輛的區(qū)域明顯大于孤立噪聲點(diǎn)的區(qū)域, 因此, 可用一個(gè)面積閾值消除孤立噪聲點(diǎn)。而對(duì)于車(chē)輛內(nèi)部噪聲點(diǎn), 這里使用形態(tài)學(xué)的方法。通過(guò)選擇合適的結(jié)構(gòu)元進(jìn)行開(kāi)閉運(yùn)算, 開(kāi)運(yùn)算可以消除車(chē)輛周?chē)c(diǎn)連接的噪聲點(diǎn), 閉運(yùn)算可以填補(bǔ)車(chē)輛內(nèi)部碎化的小區(qū)域, 然后通過(guò)車(chē)輛內(nèi)部填充可得到完整的車(chē)輛區(qū)域。

        3 實(shí)驗(yàn)結(jié)果與分析

        為驗(yàn)證該算法的有效性, 筆者選取一個(gè)真實(shí)場(chǎng)景序列作為測(cè)試對(duì)象, 該場(chǎng)景來(lái)自真實(shí)的交通攝像頭拍攝的視頻。為證實(shí)傳統(tǒng)的Grimson自適應(yīng)高斯混合模型在檢測(cè)面積大、 車(chē)速較慢、 顏色較均勻的車(chē)輛的缺陷, 這里選取了有代表性的目標(biāo)圖片。該圖片中車(chē)輛速度慢, 車(chē)長(zhǎng), 而且顏色較均勻。首先用傳統(tǒng)的高斯混合模型進(jìn)行車(chē)輛區(qū)域(包括陰影部分)的提取, 為了在實(shí)時(shí)交通視頻處理中提高檢測(cè)的實(shí)時(shí)性, 提高計(jì)算速度, 對(duì)每個(gè)像素選取3個(gè)高斯成分, 每個(gè)像素點(diǎn)取1維, 即灰度, 初始方差為36, 參數(shù)α=0.01,T=0.8。在改進(jìn)的混合高斯方法中首先對(duì)前90幀用c均值聚類(lèi)算法求得混合高斯模型的初始參數(shù)。為了提高計(jì)算的速度, 聚類(lèi)類(lèi)別數(shù)也選擇3, 即初始化混合高斯成分?jǐn)?shù)為3, 方差和均值都可從c均值聚類(lèi)中得到, 參數(shù)T1選擇0.7,T2選擇0,2,m選擇30, 參數(shù)α=0.01 ,T=0.8, 匹配分布的窗口半徑都選為4。隨著背景不停學(xué)習(xí), 高斯成分?jǐn)?shù)目將發(fā)生變化, 在穩(wěn)定的背景區(qū)域高斯成分?jǐn)?shù)目將變得很小, 而在光照緩慢變化的前景區(qū)域?qū)⒆兊煤艽? 檢測(cè)效果如圖2和圖3所示。

        a 第78幀 b 第82幀 c 第78幀檢測(cè)結(jié)果 d 第82幀檢測(cè)結(jié)果

        a 第91幀 b Grimson GMM檢測(cè)結(jié)果 c 改進(jìn)GMM檢測(cè)結(jié)果 d 傳統(tǒng)GMM生成的背景

        e 圖2的第100幀 f Grimson GMM檢測(cè)結(jié)果 g 改進(jìn)GMM檢測(cè)結(jié)果 h 改進(jìn)GMM生成的背景

        從圖2可看出, 用傳統(tǒng)的高斯模型檢測(cè)小車(chē)輛區(qū)域時(shí), 檢測(cè)的效果很好, 包括了陰影區(qū)域。但是, 從圖3b和圖3f可看出, 大車(chē)輛車(chē)身檢測(cè)斷裂了, 其他一些小的目標(biāo)的陰影部分也發(fā)生空洞。從圖3d可看到車(chē)輛的影子(包括一些車(chē)輛的漣漪), 表明傳統(tǒng)混合高斯模型在提取背景過(guò)程中把車(chē)輛的成分放到了模型中。從圖3c、圖3g和圖3h可看到, 使用改進(jìn)的方法, 背景的提取明顯比傳統(tǒng)方法準(zhǔn)確, 包括可看到的右側(cè)的陰影背景, 車(chē)輛本身提取很完整, 沒(méi)有發(fā)生斷裂。

        在圖4中, 筆者加入一幅光照突變的圖片, 這種狀況在一般的情況下很容易發(fā)生, 包括車(chē)輛車(chē)燈突然打開(kāi)的情況, 造成了局部光照明顯加強(qiáng)。在圖4b中發(fā)生光照突變, 在圖4c中可看到, 用傳統(tǒng)的自適應(yīng)高斯混合模型很容易把大部分的區(qū)域歸入到前景, 所以造成目標(biāo)的誤檢, 在圖4d中采用改進(jìn)的方法成功地檢測(cè)出一些車(chē)輛目標(biāo)。

        a 第97幀原圖 b 第97幀光照突變圖片 c Grimson GMM檢測(cè)結(jié)果 d 改進(jìn)GMM檢測(cè)結(jié)果

        為準(zhǔn)確評(píng)估兩種算法的有效性, 這里引入了前景檢測(cè)率

        (11)

        表1 算法檢測(cè)率結(jié)果

        在這個(gè)實(shí)例中, 傳統(tǒng)方法每幀的處理時(shí)間平均為0.036 879 s, 而改進(jìn)算法的時(shí)間平均為0.078 274 s, 在處理時(shí)間上沒(méi)有大幅增加, 完全可運(yùn)用到實(shí)時(shí)的檢測(cè)中。

        這里可得到一些結(jié)論: 傳統(tǒng)的自適應(yīng)混合高斯模型沒(méi)有得到車(chē)輛的完整提取, 存在一些缺陷, 改進(jìn)的方法克服了傳統(tǒng)高斯混合模型車(chē)輛斷裂、 背景學(xué)習(xí)的不準(zhǔn)確性和光照帶來(lái)的影響, 使檢測(cè)率平均提高了16%以上, 計(jì)算方便, 可在實(shí)時(shí)交通檢測(cè)中應(yīng)用。

        4 結(jié) 語(yǔ)

        筆者針對(duì)車(chē)輛檢測(cè)中存在的幾種缺陷, 提出了一種改進(jìn)的混合高斯檢測(cè)算法。該算法用c均值聚類(lèi)法求初始值, 使開(kāi)始的車(chē)輛檢測(cè)更加準(zhǔn)確, 有利于后續(xù)幀的檢測(cè)。根據(jù)先前幾幀檢測(cè)的匹配度分布, 有效利用了時(shí)間圖片序列的信息, 并且讓每個(gè)點(diǎn)的更新都與鄰域相關(guān), 改變背景學(xué)習(xí)的規(guī)則。實(shí)驗(yàn)結(jié)果表明, 該算法比傳統(tǒng)的混合高斯檢測(cè)方法更加優(yōu)越, 有效地克服了車(chē)輛檢測(cè)的斷裂以及光照突變等問(wèn)題, 提高了車(chē)輛區(qū)域檢測(cè)的準(zhǔn)確性。對(duì)學(xué)習(xí)率如何準(zhǔn)確調(diào)整以及一些參數(shù)的準(zhǔn)確設(shè)定, 有待進(jìn)一步研究。

        參考文獻(xiàn):

        [1]GRIMSON W E, STAUFFER C, ROMANO R, et al. Using Adaptive Tracking to Classify and Monitor Activities in a Site [C]∥Proceedings of the IEEE Computer Vision and Pattern Recognition. California, USA: IEEE Computer Society Press, 1998: 22-29.

        [2]STAUFFER C, GRIMSON W E. Adaptive Background Mixture Models for Real-Time Tracking [C]∥Proceedings of the IEEE Computer Vision and Pattern Recognition. California, USA: IEEE Computer Society Press, 1999: 246-252.

        [3]周游, 劉艷瀅, 王春民, 等. 幾種人體運(yùn)動(dòng)檢測(cè)算法的比較分析 [J]. 吉林大學(xué)學(xué)報(bào): 信息科學(xué)版, 2009, 27(6): 652-657.

        ZHOU You, LIU Yan-ying, WANG Chun-min, et al. Contrast Research of Several Human Motion Detection Algorithm [J]. Journal of Jilin University: Information Science Edition, 2009, 27(6): 652-657.

        [4]紀(jì)騰飛, 王世剛, 周茜, 等. 基于動(dòng)靜背景下的視頻對(duì)象自適應(yīng)提取算法 [J]. 吉林大學(xué)學(xué)報(bào): 信息科學(xué)版, 2007, 25(1): 73-77.

        JI Teng-fei, WANG Shi-gang, ZHOU Qian, et al. Adaptive Algorithm of Video Object Segmentation under Moving and Static Background [J]. Journal of Jilin University: Information Science Edition, 2007, 25(1): 73-77.

        [5]KATO J, WATANABE T, JOGA S, et al. An HMM-Based Segmentation Method for Traffic Monitoring Movies [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002, 24(9): 1291-1296.

        [6]RIDDER C, MUNKELT O, KIRCHNER H. Adaptive Background Estimation and Foreground Detection Using Kalman-Filtering [C]∥Proceedings of the International Conference on Recent Advances in Mechatronics.ICRAM’95. Istanbul, Turkey: [s.n.], 1995: 193-199.

        [7]HARITAOGLU I, HARWOOD D, DAVIS L S. W4: Who? When? Where? What?A Real-Time System for Detecting and Tracking People [C]∥Proceedings of the IEEE International Conference on Automatic Face and Gesture Recognition. California, USA: IEEE Computer Society Press, 1998: 222-227.

        [8]MOHAND SAI¨D ALLILI, DJEMEL ZIOU. Object Tracking in Videos Using Adaptive Mixture Models and Active Contours [J]. Neurocomputing, 2008, 7(1): 2001-2011.

        [9]李全民, 張運(yùn)楚. 自適應(yīng)混合高斯背景模型的改進(jìn) [J]. 計(jì)算機(jī)應(yīng)用, 2007, 27(8): 2014-2017.

        LI Quan-min, ZHANG Yun-chu. Improvement on Adaptive Mixture Gaussian Background Model [J]. Computer Applications, 2007, 27(8): 2014-2017.

        [10]李偉, 陳臨強(qiáng), 殷偉良. 基于自適應(yīng)學(xué)習(xí)率的背景建模方法 [J]. 計(jì)算機(jī)工程, 2011, 37(15): 187-189.

        LI Wei, CHEN Lin-qiang, YIN Wei-liang. Background Modeling Approach Based on Self-Adaptive Learning Rate [J]. Computer Engineering, 2011, 37(15): 187-189.

        [11]馬義德, 朱望飛, 安世霞, 等. 改進(jìn)的基于高斯混合模型的運(yùn)動(dòng)目標(biāo)檢測(cè)方法 [J]. 計(jì)算機(jī)應(yīng)用, 2007, 27(10): 2544-2546.

        MA Yi-de, ZHU Wang-fei, AN Shi-xia, et al. Improved Moving Objects Detection Method Based on Gaussian Mixture Model [J]. Computer Applications, 2007, 27(10): 2544-2546.

        [12]張運(yùn)楚, 李貽斌, 張建濱. 高斯混合背景模型的方差估計(jì)研究 [J]. 計(jì)算機(jī)工程與應(yīng)用, 2012, 48(4): 162-166.

        ZHANG Yun-chu, LI Yi-bin, ZHANG Jian-bin. Research on Variance Estimation of GMM Background Model [J]. Computer Engineering and Applications, 2012, 48(4): 162-166.

        [13]朱峰, 羅立民, 宋余慶, 等. 基于自適應(yīng)空間鄰域信息高斯混合模型的圖像分割 [J]. 計(jì)算機(jī)研究與發(fā)展, 2011, 48(11): 2000-20007.

        ZHU Feng, LUO Li-min, SONG Yu-qing, et al. Adaptive Spatially Neighborhood Information Gaussian Mixture Model for Image Segmentation [J]. Journal of Computer Research and Development, 2011, 48(11): 2000-2007.

        [14]VASILEIOS KARAVASILIS, CHRISTOPHOROS NIKOU, ARISTIDIS LIKAS. Visual Tracking Using the Earth Mover’s Distance between Gaussian Mixtures and Kalman Filtering [J]. Journal of Image and Vision Computing, 2011(29): 295-305.

        [15]董蓉, 李勃, 陳啟美. 路況視頻中HSV彩色不變量陰影檢測(cè)法研究與改進(jìn) [J]. 中國(guó)圖象圖形學(xué)報(bào), 2009, 14(12): 2483-2488.

        DONG Rong, LI Bo, CHEN Qi-mei. Research and Improvement on Shadow Detection in Expressway Videos Using HSV Color Model [J]. Journal of Image and Graphics, 2009, 14(12): 2483-2488.

        猜你喜歡
        背景區(qū)域檢測(cè)
        “新四化”背景下汽車(chē)NVH的發(fā)展趨勢(shì)
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        《論持久戰(zhàn)》的寫(xiě)作背景
        晚清外語(yǔ)翻譯人才培養(yǎng)的背景
        小波變換在PCB缺陷檢測(cè)中的應(yīng)用
        關(guān)于四色猜想
        分區(qū)域
        基于嚴(yán)重區(qū)域的多PCC點(diǎn)暫降頻次估計(jì)
        国产精品日韩亚洲一区二区| 啪啪免费网站| 国产一起色一起爱| 一区二区三区亚洲免费| 久久精品国产99久久久| 国产福利一区二区三区在线观看 | 日日摸夜夜添夜夜添无码免费视频| 久久精品无码鲁网中文电影 | 无码乱人伦一区二区亚洲一| 国内精品九九久久久精品| 国产亚洲日韩AV在线播放不卡| 少妇人妻偷人中文字幕| 亚洲国产精品不卡av在线| 亚洲精品乱码久久久久久蜜桃不卡 | 久久精品熟女亚洲av麻豆永永| 青春草在线视频观看| 好看的欧美熟妇www在线| 亚洲精品中国国产嫩草影院美女| 国产激情一区二区三区在线蜜臀| 中文字幕丰满人妻被公强| 色偷偷久久久精品亚洲| 青青草原精品99久久精品66| 亚洲一区二区三区av在线免费| 国产精品很黄很色很爽的网站 | 国产激情一区二区三区成人免费| 国产麻豆一区二区三区在线播放 | 中文字幕v亚洲日本| 亚洲国产精品嫩草影院久久| 免费国产自拍视频在线观看| 成人影片麻豆国产影片免费观看| 中文字幕日韩一区二区不卡| 国产v视频| 国产亚洲精品高清视频| 人禽杂交18禁网站免费| 欧美性猛交xxxx黑人猛交| 免费人成视频欧美| 国产一区二区三区av免费| 久久精品国产久精国产| 亚洲国产精品悠悠久久琪琪| 蜜桃噜噜一区二区三区| 国产午夜福利久久精品|