亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于高斯混合模型的視頻圖像人數(shù)統(tǒng)計(jì)算法研究

        2017-07-10 10:27:26
        關(guān)鍵詞:檢測(cè)方法模型

        田 楓

        (陜西師范大學(xué)數(shù)學(xué)與信息科學(xué)學(xué)院 陜西 西安 710119)

        基于高斯混合模型的視頻圖像人數(shù)統(tǒng)計(jì)算法研究

        田 楓

        (陜西師范大學(xué)數(shù)學(xué)與信息科學(xué)學(xué)院 陜西 西安 710119)

        針對(duì)攝像機(jī)俯視拍攝場(chǎng)景的人數(shù)統(tǒng)計(jì)問題,提出一種運(yùn)算效率高、誤檢率低的人數(shù)統(tǒng)計(jì)方法。以人頭部位為檢測(cè)對(duì)象,采用運(yùn)動(dòng)偵測(cè)、邊緣檢測(cè)方法獲取人頭輪廓,在此基礎(chǔ)上采用高斯混合模型分別對(duì)人頭輪廓目標(biāo)點(diǎn)集和橢圓模型進(jìn)行建模,通過(guò)最小化人頭輪廓目標(biāo)點(diǎn)集與橢圓模型的高斯混合模型之間的歐氏距離求解橢圓參數(shù),統(tǒng)計(jì)滿足橢圓形狀的輪廓數(shù)量,再通過(guò)形狀濾波得到人數(shù)統(tǒng)計(jì)結(jié)果。人數(shù)統(tǒng)計(jì)對(duì)比實(shí)驗(yàn)結(jié)果表明,新方法的誤檢率低,且運(yùn)算效率高。

        人數(shù)統(tǒng)計(jì) 高斯混合模型 人頭檢測(cè) 邊緣檢測(cè) 運(yùn)動(dòng)偵測(cè)

        0 引 言

        大型場(chǎng)館(如博物館、展覽館、商場(chǎng)等)都需要智能的人數(shù)統(tǒng)計(jì)系統(tǒng),以便及時(shí)掌握不同區(qū)域的人群分布,為特殊情況(如火災(zāi))下的人群疏散和管制提供幫助[1]。隨著監(jiān)控?cái)z像機(jī)的普及,基于計(jì)算機(jī)視覺的人數(shù)統(tǒng)計(jì)方法成為當(dāng)前主流的人數(shù)統(tǒng)計(jì)方法[2-4]。

        依據(jù)攝像機(jī)拍攝方式的不同,現(xiàn)有基于計(jì)算機(jī)視覺的人數(shù)統(tǒng)計(jì)方法也可以分為兩類。一類是針對(duì)攝像機(jī)側(cè)向拍攝場(chǎng)景的人數(shù)統(tǒng)計(jì)方法,另一類是針對(duì)攝像機(jī)俯視拍攝場(chǎng)景的人數(shù)統(tǒng)計(jì)方法。前者主要依據(jù)人體的結(jié)構(gòu)化特征檢測(cè)人體目標(biāo)和進(jìn)行人數(shù)統(tǒng)計(jì),常用的人體結(jié)構(gòu)化特征有梯度方向直方圖HOG(Histogram of Oriented Gradient)[5]、Haar[6]、局部二元模式LBP(Local Binary Pattern)[7]等。此類方法的難點(diǎn)在于,攝像機(jī)側(cè)向拍攝時(shí)人與人、人與物之間經(jīng)常存在遮擋,而遮擋條件下人體的結(jié)構(gòu)化特征丟失嚴(yán)重,人數(shù)統(tǒng)計(jì)誤差較大。因此,在大型場(chǎng)館內(nèi)常采用攝像機(jī)俯視拍攝的方式采集視頻,這樣可以大幅降低人體遮擋的現(xiàn)象。然而帶來(lái)的問題是,人體結(jié)構(gòu)化特征的顯著性下降,難以采用第一類方法有效檢測(cè)人體目標(biāo)。不過(guò),這種拍攝方式下人體的頭部特征比較顯著,常采用人頭檢測(cè)的方法來(lái)進(jìn)行人數(shù)統(tǒng)計(jì)[8-9]??紤]到人的頭部輪廓與橢圓形狀相近,通過(guò)橢圓檢測(cè)方式檢測(cè)人頭目標(biāo)是一種有效的人頭檢測(cè)方法,如采用廣義霍夫圓變換方法檢測(cè)人頭目標(biāo)[10-11]。然而,此類方法檢測(cè)橢圓目標(biāo)的誤檢率較高,且運(yùn)算效率較低。

        針對(duì)攝像機(jī)俯視拍攝場(chǎng)景的人數(shù)統(tǒng)計(jì)難題,本文結(jié)合高斯混合模型和歐式距離準(zhǔn)則檢測(cè)橢圓目標(biāo),降低了橢圓檢測(cè)的誤檢率,同時(shí)提高了運(yùn)算效率。以此為基礎(chǔ),本文采用運(yùn)動(dòng)偵測(cè)方法快速定位感興趣區(qū)域,采用邊緣檢測(cè)方法獲取運(yùn)動(dòng)目標(biāo)輪廓,再結(jié)合橢圓檢測(cè)和形狀濾波方法進(jìn)行人數(shù)統(tǒng)計(jì),可以對(duì)攝像機(jī)俯視拍攝場(chǎng)景下的人體數(shù)量進(jìn)行可靠和高效的統(tǒng)計(jì)。與現(xiàn)有的攝像機(jī)俯視場(chǎng)景人頭計(jì)數(shù)方法相比,本文方法的創(chuàng)新性主要體現(xiàn)兩個(gè)方面:

        第一,結(jié)合高斯混合模型和歐式距離準(zhǔn)則檢測(cè)橢圓目標(biāo),與常用的廣義霍夫圓變換方法相比,橢圓目標(biāo)檢測(cè)的誤檢率更低,運(yùn)算效率更高。

        第二,在橢圓檢測(cè)的基礎(chǔ)上,結(jié)合運(yùn)動(dòng)偵測(cè)提高算法的運(yùn)算效率,結(jié)合形狀濾波進(jìn)一步降低人頭目標(biāo)的誤檢,提高人數(shù)統(tǒng)計(jì)精度。

        1 高斯混合模型構(gòu)建及橢圓檢測(cè)

        本文提出一種結(jié)合高斯混合模型和歐氏距離準(zhǔn)則的橢圓檢測(cè)方法,基本思路是:對(duì)于圖像上的目標(biāo)點(diǎn)集f和一個(gè)橢圓模型ep,采用高斯混合模型進(jìn)行建模,描述二者的形狀。然后通過(guò)最小化兩模型之間的歐式距離來(lái)估計(jì)橢圓參數(shù),檢測(cè)橢圓目標(biāo)。

        橢圓參數(shù)p可以表示為:

        p={x0,y0,a,b,α}

        (1)

        其中,(x0,y0)表示橢圓的中心,a和b分別表示橢圓長(zhǎng)軸和短軸的長(zhǎng)度,α表示橢圓長(zhǎng)軸與水平方向的夾角。

        橢圓參數(shù)可以通過(guò)最小化目標(biāo)點(diǎn)集f與橢圓模型ep之間的歐氏距離來(lái)求解,表示為:

        (2)

        下面介紹目標(biāo)點(diǎn)集f與橢圓模型ep的建模方法以及橢圓檢測(cè)方法。

        1.1 橢圓模型建模

        參數(shù)p所形成的橢圓上的任一點(diǎn)u(j)滿足如下方程:

        (3)

        其中,τj∈[0,2π]。

        本文采用高斯混合模型對(duì)橢圓上的點(diǎn)進(jìn)行建模,記橢圓上的N個(gè)采樣點(diǎn)的集合為{u(j)|j=1,2,…,N},則橢圓模型ep可以表示為:

        (4)

        在本文中,μj取目標(biāo)點(diǎn)u(j)與下一個(gè)目標(biāo)點(diǎn)u(j+1)的位置平均值。協(xié)方差矩陣Σj通過(guò)構(gòu)建一個(gè)旋轉(zhuǎn)矩陣Qj來(lái)求解,表示為:

        (5)

        其中,旋轉(zhuǎn)矩陣Qj由兩個(gè)單位正交向量組成,表示為:

        (6)

        圖1 單位正交向量圖示

        對(duì)角矩陣Λj表示為:

        (7)

        其中:

        (8)

        其中,h為正交帶寬控制參數(shù),用于控制橢圓輪廓的平滑度。權(quán)重wj滿足如下條件:

        (9)

        1.2 目標(biāo)點(diǎn)集建模

        給定一組目標(biāo)點(diǎn)的集合{v(i)|i=1,2,…,n},本文也采用高斯混合模型對(duì)目標(biāo)點(diǎn)集f進(jìn)行建模,表示為:

        (10)

        (11)

        其中,目標(biāo)點(diǎn)v(i)的梯度表示為:

        (12)

        另外,對(duì)于每一個(gè)目標(biāo)點(diǎn),對(duì)角矩陣Λi是相同的,表示為:

        (13)

        1.3 橢圓參數(shù)求解

        如式(2)所示,橢圓參數(shù)可以通過(guò)最小化目標(biāo)點(diǎn)集f與橢圓模型ep之間的歐氏距離來(lái)求解,其中:

        ‖f-ep‖2=‖f‖2+‖ep‖2-2

        (14)

        其中,第一項(xiàng)‖f‖2與橢圓參數(shù)p無(wú)關(guān),可以忽略。后兩項(xiàng)的計(jì)算方法為:

        μk,∑j+Σk)

        (15)

        μj,Σj+Σi)

        (16)

        1.4 單橢圓檢測(cè)

        單橢圓參數(shù)求解偽代碼

        輸入:hmax,hmin,β

        過(guò)程:

        1. 初始化:h=hmax。

        3. while(h=β×h且h≤hmin)

        4. 計(jì)算C(p)=‖f-ep‖2;

        5. if(C(p)

        7. end if

        8. end while

        (17)

        其中,T1為設(shè)定的閾值,用于描述目標(biāo)點(diǎn)與橢圓模型的容差。如果橢圓上的目標(biāo)點(diǎn)數(shù)量超過(guò)橢圓長(zhǎng)軸和短軸的長(zhǎng)度之和,則認(rèn)為檢測(cè)到一個(gè)橢圓,否則認(rèn)為沒有檢測(cè)到橢圓。

        1.5 多橢圓檢測(cè)

        如果有多個(gè)橢圓,本文采用兩步檢測(cè)法進(jìn)行檢測(cè),具體步驟為:

        Step1 全局檢測(cè)

        采用單橢圓檢測(cè)方法檢測(cè)目標(biāo)點(diǎn)集中的一個(gè)橢圓;

        Step2 目標(biāo)點(diǎn)集更新

        按照式(17)判斷滿足已檢測(cè)橢圓的點(diǎn)集,將其從目標(biāo)點(diǎn)集中刪除,如果剩余的目標(biāo)點(diǎn)數(shù)量小于原始目標(biāo)點(diǎn)數(shù)量的T2倍,則檢測(cè)結(jié)束;否則,返回Step1。

        檢測(cè)結(jié)束后,輸出檢測(cè)到的橢圓數(shù)量。其中,T2為經(jīng)驗(yàn)閾值。

        2 人數(shù)統(tǒng)計(jì)

        依據(jù)攝像機(jī)拍攝角度的不同,人數(shù)統(tǒng)計(jì)的方法也不一樣。如圖2所示,(a)為攝像機(jī)側(cè)向拍攝場(chǎng)景,此時(shí)常依據(jù)人體的結(jié)構(gòu)化特征(如梯度方向直方圖特征)檢測(cè)人體,采用行人檢測(cè)方法進(jìn)行人數(shù)統(tǒng)計(jì)。如當(dāng)攝像機(jī)由上向下俯視拍攝時(shí),人體的結(jié)構(gòu)化特征不明顯(如(b)所示),此時(shí)常采用的行人檢測(cè)方法很難檢測(cè)到人體目標(biāo)。而此類場(chǎng)景下人頭的輪廓非常顯著,可以采用橢圓檢測(cè)方法來(lái)檢測(cè)此類場(chǎng)景下的人體目標(biāo),統(tǒng)計(jì)人數(shù)。本文結(jié)合前述的橢圓檢測(cè)方法和運(yùn)動(dòng)偵測(cè)方法來(lái)檢測(cè)此類場(chǎng)景下的人體目標(biāo),統(tǒng)計(jì)人數(shù)?;玖鞒倘鐖D3所示。

        圖2 攝像機(jī)拍攝方式

        圖3 人數(shù)統(tǒng)計(jì)流程圖

        2.1 運(yùn)動(dòng)偵測(cè)

        運(yùn)動(dòng)偵測(cè)是為了粗定位人體區(qū)域,去除大面積的背景區(qū)域,從而提高算法的運(yùn)算效率,同時(shí)降低虛檢。本文采用混合高斯模型運(yùn)動(dòng)目標(biāo)檢測(cè)方法,詳細(xì)步驟見文獻(xiàn)[12]。

        2.2 感興趣區(qū)域定位與裁剪

        一般,運(yùn)動(dòng)偵測(cè)檢測(cè)到的運(yùn)動(dòng)目標(biāo)可能不完整或存在斷裂。因此,本文在基于運(yùn)動(dòng)偵測(cè)結(jié)果定位感興趣區(qū)域時(shí),先對(duì)運(yùn)動(dòng)偵測(cè)后的二值圖像進(jìn)行數(shù)學(xué)形態(tài)學(xué)的膨脹操作(膨脹窗口為W×H),其目的是避免人頭區(qū)域的丟失。然后,按8-鄰接連通方式,搜索二值圖像的連通域,選取包圍盒尺寸在T3×T3和T4×T4之間的連通域作為感興趣區(qū)域,再按照感興趣區(qū)域在原始圖像中的位置,從原始灰度圖像中裁剪感興趣區(qū)域圖像,進(jìn)行后續(xù)的檢測(cè)。其中,T3、T4為經(jīng)驗(yàn)閾值。

        2.3 邊緣檢測(cè)

        本文采用Prewitt檢測(cè)算子檢測(cè)感興趣區(qū)域圖像的邊緣,算子模板如圖4所示。通過(guò)邊緣檢測(cè),得到橢圓檢測(cè)所需的目標(biāo)點(diǎn)集。

        圖4 Prewitt檢測(cè)算子模板

        2.4 橢圓檢測(cè)

        在運(yùn)動(dòng)偵測(cè)和感興趣區(qū)域定位階段,人體目標(biāo)可能由于距離太近而被檢測(cè)到同一個(gè)感興趣區(qū)域之中。這樣情況下,該感興趣區(qū)域可能存在多個(gè)橢圓。因此,對(duì)于邊緣檢測(cè)提取到的目標(biāo)點(diǎn)集,采用上一節(jié)所述的多橢圓檢測(cè)方法檢測(cè)橢圓個(gè)數(shù)及每一個(gè)橢圓對(duì)應(yīng)的參數(shù)。

        2.5 形狀濾波

        對(duì)于檢測(cè)到的每一個(gè)橢圓,采用形狀濾波濾除干擾。具體地,要求每一個(gè)橢圓的長(zhǎng)軸、短軸的長(zhǎng)度和比例滿足場(chǎng)景中人頭目標(biāo)的先驗(yàn)知識(shí),本文用式(18)約束了人頭目標(biāo)的最大、最小尺寸和形狀。

        (18)

        其中,T5和T6為經(jīng)驗(yàn)閾值。

        2.6 人數(shù)統(tǒng)計(jì)

        當(dāng)攝像機(jī)俯視拍攝視頻時(shí),不同人體的人頭目標(biāo)不會(huì)重疊。因此,如果某一個(gè)感興趣區(qū)域中檢測(cè)到多個(gè)橢圓,判斷各橢圓的包圍盒是否有重疊,如果有,則合并為一個(gè)橢圓,也即一個(gè)人頭目標(biāo)。然后,統(tǒng)計(jì)圖像中各感興趣區(qū)域檢測(cè)到的橢圓總數(shù),即為當(dāng)前時(shí)刻場(chǎng)景中包含的人數(shù)。

        3 仿真實(shí)驗(yàn)

        本文針對(duì)攝像機(jī)俯視拍攝模式采集的人體視頻集進(jìn)行仿真實(shí)驗(yàn),分析本文方法涉及參數(shù)的最優(yōu)取值,與現(xiàn)有主流方法進(jìn)行對(duì)比實(shí)驗(yàn),評(píng)價(jià)本文方法的性能。

        3.1 實(shí)驗(yàn)數(shù)據(jù)與評(píng)測(cè)方法

        目前,國(guó)際上公開人體數(shù)據(jù)集都是攝像機(jī)側(cè)向拍攝模式采集的人體數(shù)據(jù)集,如INRIA[13]、Daimler[14]和Caltech行人數(shù)據(jù)集[15]。而攝像機(jī)側(cè)向拍攝時(shí)人體易出現(xiàn)遮擋現(xiàn)象,人數(shù)統(tǒng)計(jì)誤差較大。因此,在大型場(chǎng)館內(nèi)常采用攝像機(jī)俯視拍攝模式采集視頻進(jìn)行人數(shù)統(tǒng)計(jì)。然而,國(guó)內(nèi)外目前還未見公開的攝像機(jī)俯視拍攝模式采集的人體數(shù)據(jù)集。本文針對(duì)實(shí)驗(yàn)室自建的測(cè)試數(shù)據(jù)集進(jìn)行仿真實(shí)驗(yàn),該數(shù)據(jù)集是在博物館人數(shù)統(tǒng)計(jì)項(xiàng)目中構(gòu)建的,由安裝在各場(chǎng)館的攝像機(jī)拍攝,攝像機(jī)的拍攝角度是由上到下,安裝高度在8~10 m之間。視頻采集參數(shù)如表1所示。

        表1 視頻采集參數(shù)

        為了避免視頻解碼誤差影響測(cè)試結(jié)果,本文先將視頻數(shù)據(jù)集轉(zhuǎn)換為圖像數(shù)據(jù)集,具體是按照視頻幀率將視頻解碼為bmp格式的圖像進(jìn)行存儲(chǔ),然后對(duì)每一幅圖像上的人數(shù)進(jìn)行人工標(biāo)記,包括標(biāo)記人頭目標(biāo)的包圍盒位置以及圖像上的總?cè)藬?shù)。

        算法評(píng)測(cè)方法是:首先,對(duì)于每一幅圖像,統(tǒng)計(jì)檢測(cè)到的人數(shù)以及人頭目標(biāo)的包圍盒。然后,與標(biāo)記的人頭目標(biāo)包圍盒進(jìn)行比較,如果檢測(cè)出的人頭目標(biāo)包圍盒與實(shí)際人頭目標(biāo)包圍盒的重合度超過(guò)50%,則認(rèn)為檢測(cè)正確,否則,認(rèn)為檢測(cè)錯(cuò)誤。接著,統(tǒng)計(jì)該圖像漏檢的人數(shù)和誤檢的人數(shù),計(jì)算二者之和與該幅圖像檢測(cè)出的總?cè)藬?shù)的比值,將該比值作為當(dāng)前圖像的誤檢率。最后,統(tǒng)計(jì)所有圖像的平均誤檢率,作為算法的性能評(píng)價(jià)指標(biāo)。平均誤檢率越低,算法性能越好。另外,運(yùn)算效率也是算法的重要評(píng)價(jià)指標(biāo)之一。因此,本文在對(duì)比算法性能時(shí)還對(duì)比每幅圖像的平均處理時(shí)間,作為評(píng)價(jià)算法運(yùn)算效率的依據(jù)。

        3.2 相關(guān)參數(shù)分析

        本文涉及的參數(shù)可以分為三類,詳細(xì)描述如下。

        (1) 橢圓采樣點(diǎn)數(shù)

        在本文中,橢圓采樣點(diǎn)數(shù)為N。當(dāng)N取值不同時(shí),采用高斯混合模型擬合的橢圓效果也不一樣。一般地,N取值越大,擬合的橢圓邊界越平滑,但同時(shí)擬合所需的目標(biāo)點(diǎn)數(shù)量越多,檢測(cè)尺寸較小的橢圓目標(biāo)時(shí)就可能因?yàn)槟繕?biāo)點(diǎn)數(shù)量少而造成漏檢。另外,N取值越大,橢圓擬合計(jì)算量也越大。因此,在保證擬合橢圓邊界基本平滑的前提下,N取值越小越好。圖5顯示了參數(shù)N取不同值時(shí)高斯混合模型擬合的橢圓效果,其中,正交帶寬控制參數(shù)h取固定值1。可見,當(dāng)N=20時(shí)擬合的橢圓邊界已基本平滑。因此,本文取N=20。

        圖5 參數(shù)N取值不同時(shí)的橢圓擬合效果

        (2) 經(jīng)驗(yàn)參數(shù)

        本文涉及的經(jīng)驗(yàn)參數(shù)有9個(gè),分別是T1、T2、T3、T4、T5、T6、hmin、hmax和β。其中,T1用于描述實(shí)際目標(biāo)點(diǎn)與擬合橢圓模型的容差,T2用于約束多橢圓檢測(cè)的終止條件,T3和T4用于約束待檢測(cè)人頭目標(biāo)的尺寸,T5和T6用于約束待檢測(cè)人頭目標(biāo)的形狀。hmin、hmax和β用于控制橢圓檢測(cè)效率。這些參數(shù)都可以通過(guò)大量實(shí)驗(yàn)統(tǒng)計(jì)以及一些先驗(yàn)知識(shí)來(lái)確定。本文所用的參數(shù)經(jīng)驗(yàn)取值見表2。

        表2 經(jīng)驗(yàn)參數(shù)取值

        (3) 膨脹窗口尺寸

        運(yùn)動(dòng)偵測(cè)后的二值圖像需要進(jìn)行數(shù)學(xué)形態(tài)學(xué)的膨脹操作,目的是為了防止運(yùn)動(dòng)目標(biāo)斷裂或者丟失。膨脹窗口的尺寸越大,運(yùn)動(dòng)目標(biāo)的完整性越好,人頭目標(biāo)丟失的概率越低,但同時(shí)干擾區(qū)域會(huì)增多,誤檢的概率以及算法的運(yùn)算量都會(huì)增大。因此,最優(yōu)膨脹窗口尺寸的選擇依據(jù)是:在人數(shù)統(tǒng)計(jì)的平均誤檢率下降不明顯的情況下,選取盡可能小的膨脹窗口尺寸。其中,考慮到攝像機(jī)由上向下拍攝時(shí)人頭目標(biāo)長(zhǎng)寬比差異不大,因此本文采用正方形膨脹窗口,也即W=H。圖6給出了不同膨脹窗口尺寸下的誤檢率曲線,可見,隨著膨脹窗口尺寸的增加,平均誤檢率會(huì)降低,當(dāng)W=H=7時(shí),平均誤檢率下降趨勢(shì)已不明顯,甚至在W=H=13時(shí),平均誤檢率還有少許增大。因此,本文取W=H=7,也即選擇尺寸為7×7的窗口進(jìn)行膨脹操作。

        圖6 不同膨脹窗口尺寸下的誤檢率曲線

        3.3 不同方法性能對(duì)比

        大型場(chǎng)館內(nèi)常采用攝像機(jī)俯視拍攝方式采集視頻,以便降低人與人、人與物之間的相互遮擋現(xiàn)象。然而該模式下人體結(jié)構(gòu)化特征的顯著性下降,無(wú)法采用常用的行人檢測(cè)方法進(jìn)行人數(shù)統(tǒng)計(jì)。由于該模式下人頭部位的顯著性增強(qiáng),常采用人頭檢測(cè)方法進(jìn)行人數(shù)統(tǒng)計(jì),具體是將人頭輪廓擬合為橢圓,通過(guò)檢測(cè)橢圓數(shù)量實(shí)現(xiàn)人數(shù)統(tǒng)計(jì),常用方法詳見文獻(xiàn)[8-11]。因此,本文在相同數(shù)據(jù)集上,將本文方法與文獻(xiàn)[8-11]所述方法進(jìn)行對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表3所示。其中,對(duì)比方法是參考文獻(xiàn)[8-11]中所述方法的實(shí)現(xiàn)原理和步驟自行實(shí)現(xiàn)的,關(guān)于廣義霍夫圓檢測(cè)、運(yùn)動(dòng)偵測(cè)、邊緣檢測(cè)部分借鑒了OpenCV中的相關(guān)代碼。

        表3 不同人數(shù)統(tǒng)計(jì)方法性能對(duì)比

        實(shí)驗(yàn)所用的計(jì)算機(jī)性能參數(shù)為:Intel Core-i5 CPU 3.20 GHz、16 GB RAM和Windows 7 64位操作系統(tǒng)。軟件處理平臺(tái)為Visual Studio 2010。

        由表3可見,本文方法的誤檢率最低,而且平均處理時(shí)間最小,證明本文方法可以有效進(jìn)行人數(shù)統(tǒng)計(jì)。

        4 結(jié) 語(yǔ)

        本文提出了一種基于高斯混合模型的人數(shù)統(tǒng)計(jì)方法,首先采用運(yùn)動(dòng)偵測(cè)方法檢測(cè)運(yùn)動(dòng)目標(biāo)區(qū)域,然后提取目標(biāo)輪廓,在此基礎(chǔ)上采用結(jié)合高斯混合模型和歐式距離準(zhǔn)則的橢圓檢測(cè)方法檢測(cè)人頭目標(biāo),經(jīng)過(guò)濾波后得到人數(shù)統(tǒng)計(jì)結(jié)果。針對(duì)攝像機(jī)俯視拍攝場(chǎng)景的人數(shù)統(tǒng)計(jì)仿真實(shí)驗(yàn)結(jié)果表明,本文方法的人數(shù)統(tǒng)計(jì)誤檢率和平均處理時(shí)間都低于目前主流方法,證明本文方法是一種有效的人數(shù)統(tǒng)計(jì)方法,可用于大型場(chǎng)館的客流統(tǒng)計(jì)以及客車的超載檢測(cè)。

        [1] 周治平,許伶俐,李文慧.特征回歸與檢測(cè)結(jié)合的人數(shù)統(tǒng)計(jì)方法[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2015,27(3):425-432.

        [2] 常慶龍,夏洪山,黎寧.一種基于歸一化前景和角點(diǎn)信息的復(fù)雜場(chǎng)景人數(shù)統(tǒng)計(jì)方法[J].電子與信息學(xué)報(bào),2014,36(2):312-317.

        [3] 湯石晨,陳鍛生.基于光流法和行人面積特征的人數(shù)統(tǒng)計(jì)方法研究[J].圖學(xué)學(xué)報(bào),2013,34(1):139-144.

        [4] 李虎,張二虎,段敬紅.基于PCA和多元統(tǒng)計(jì)回歸的人群人數(shù)統(tǒng)計(jì)方法[J].計(jì)算機(jī)工程與應(yīng)用,2014,50(11):206-209.

        [5] Sun L,Liu G,Liu Y.Multiple pedestrians tracking algorithm by incorporating histogram of oriented gradient detections[J].Iet Image Processing,2013,7(7):653-659.

        [6] Hoang V D,Vavilin A,Jo K H.Fast human detection based on parallelogram haar-like features[C]//IECON 2012-38th Annual Conference on IEEE Industrial Electronics Society.IEEE,2012:4220-4225.

        [7] Satpathy A,Jiang X,Eng H L.Human detection using Discriminative and Robust Local Binary Pattern[C]//IEEE International Conference on Acoustics,Speech,& Signal Processing.2013:2376-2380.

        [8] Vu T H,Osokin A,Laptev I.Context-Aware CNNs for Person Head Detection[C]//2015 IEEE International Conference on Computer Vision (ICCV).2015:2893-2901.

        [9] 文嘉俊,徐勇,戰(zhàn)蔭偉.基于AdaBoost和幀間特征的人數(shù)統(tǒng)計(jì)[J].中國(guó)圖象圖形學(xué)報(bào),2011,16(9):1729-1735.

        [10] 徐培智,徐貴力,黃鑫.基于隨機(jī)Hough變換的人頭檢測(cè)[J].計(jì)算機(jī)工程,2012,38(1):199-200.

        [11] 張繼法,梅雪,許松松,等.一種基于雙橢圓模型的視頻人數(shù)統(tǒng)計(jì)方法[J].計(jì)算機(jī)科學(xué),2012(B06):499-502.

        [12] 周建英,吳小培,張超,等.基于滑動(dòng)窗的混合高斯模型運(yùn)動(dòng)目標(biāo)檢測(cè)方法[J].電子與信息學(xué)報(bào),2013(7):1650-1656.

        [13] Dalal N,Triggs B.Histograms of Oriented Gradients for Human Detection[C]//IEEE Conference on Computer Vision & Pattern Recognition,2005:886-893.

        [14] Markus E,Gavrila D M.Monocular pedestrian detection:survey and experiments[J].Pattern Analysis & Machine Intelligence IEEE Transactions on,2008,31(12):2179-2195.

        [15] Dollar P,Wojek C,Schiele B,et al.Pedestrian detection:An evaluation of the state of the art[J].Pattern Analysis and Machine Intelligence,IEEE Transactions on,2012,34(4):743-761.

        RESEARCH ON THE VIDEO IMAGE PEOPLE COUNTING ALGORITHM BASED ON GAUSSIAN MIXTURE MODEL

        Tian Feng

        (SchoolofMathematicsandInformationScience,ShaanxiNormalUniversity,Xi’an710119,Shaanxi,China)

        Aiming at the problem of people counting in the overhead scene of the camera, a people counting method of high efficiency and low false detection rate is proposed. The new method takes people’s heads as the detection objects, and uses motion detection and edge detection methods to obtain contours of heads. On this basis, the Gaussian mixture model is used to model the contour points of the human head and the ellipse model respectively. By minimizing the Euclidean distance between the target contour set and the elliptic model of Gaussian mixture model, the elliptic parameters are solved and the number of contours satisfying the elliptical shape is counted, and then through the shape filtering to get the results of people counting. The experimental results show that the new method has low false detection rate and high computational efficiency.

        People counting Gaussian mixture model Head detection Edge detection Motion detection

        2016-05-20。陜西省自然科學(xué)基金項(xiàng)目(2016JM1017)。田楓,博士生,主研領(lǐng)域:算法分析及數(shù)學(xué)哲學(xué)等。

        TP391

        A

        10.3969/j.issn.1000-386x.2017.06.034

        猜你喜歡
        檢測(cè)方法模型
        一半模型
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        可能是方法不對(duì)
        3D打印中的模型分割與打包
        小波變換在PCB缺陷檢測(cè)中的應(yīng)用
        用對(duì)方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        国产精品美女久久久免费| 亚洲乱精品中文字字幕| 精品人妻av区二区三区| 老熟女的中文字幕欲望| 中国农村妇女hdxxxx| 无码人妻少妇久久中文字幕蜜桃| 亚洲高清在线视频网站| 开心五月天第四色婷婷| 久久久g0g0午夜无码精品| 视频福利一区| 国产少妇一区二区三区| 视频在线观看一区二区三区| 日韩吃奶摸下aa片免费观看| 国模精品二区| 久久精品国产亚洲av日韩精品| 十八禁视频在线观看免费无码无遮挡骂过 | 国产乱人对白| 夜夜揉揉日日人人| 国产在线AⅤ精品性色| 野花视频在线观看免费| 亚洲国产精品无码久久98| 亚洲精品免费专区| 精品日本一区二区视频| 中国亚洲一区二区视频| 亚洲av最新在线网址| 亚洲AV永久天堂在线观看| 少妇久久一区二区三区| 国产亚洲精品第一综合另类| 成人国产精品免费视频| bbbbbxxxxx欧美性| 国产高清精品一区二区| 国产成人亚洲精品青草天美| 国产成人av综合亚洲色欲| 国产成人自拍视频视频| 永久天堂网av手机版| 中文字幕无码不卡免费视频| 亚洲日本人妻中文字幕| 精品国产一区二区三区三| 亚洲精品久久中文字幕| 欧美破处在线观看| 91九色中文视频在线观看|