亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        輪廓定位下的人頭NSCT特征提取方法

        2018-08-10 07:28:54孫萬(wàn)春張建勛朱佳寶
        關(guān)鍵詞:人頭像素點(diǎn)輪廓

        孫萬(wàn)春,張建勛,馬 慧,朱佳寶

        (1.重慶理工大學(xué) 計(jì)算機(jī)科學(xué)與工程學(xué)院, 重慶 400054;2.安徽警官職業(yè)學(xué)院 計(jì)算機(jī)基礎(chǔ)教研室, 合肥 230031)

        隨著商場(chǎng)及公共場(chǎng)所設(shè)施的逐步完善,在各類超市、電影院、室外休息場(chǎng)所都需要進(jìn)行人員流動(dòng)信息的采集。依靠采集到的信息[1]不僅能得到不同區(qū)域的消費(fèi)者消費(fèi)情況、客戶偏好、廣告需求定位等信息,更能有效地預(yù)防因?yàn)槿肆髅芏冗^大造成的安全事故的發(fā)生。鑒于此,提高和改善實(shí)際場(chǎng)景中人數(shù)統(tǒng)計(jì)工作一直是學(xué)者關(guān)注的熱點(diǎn)。隨著計(jì)算機(jī)視覺研究的不斷發(fā)展,很多學(xué)者針對(duì)人頭檢測(cè)提出了各類優(yōu)化方法,但是如何在不同的場(chǎng)所下提高人頭識(shí)別率仍然是其中核心問題。目前人頭檢測(cè)的數(shù)據(jù)源絕大多數(shù)來(lái)自于監(jiān)控設(shè)備,其提供的視頻信息經(jīng)常會(huì)出現(xiàn)分辨率較低、目標(biāo)重疊、有外界光線干擾等問題,這對(duì)檢測(cè)造成了極大的影響。

        夏菁菁等[2]利用形態(tài)學(xué)的方法提出了一種基于人體骨架特征的人數(shù)統(tǒng)計(jì)方法,但是該方法對(duì)于目標(biāo)遮擋嚴(yán)重以及人流量較大的場(chǎng)景,不僅不能提取較完整的人體骨架特征,而且運(yùn)算效率較低,滿足不了實(shí)際場(chǎng)景需求。趙軍偉等[3]為了在實(shí)際應(yīng)用場(chǎng)景中能實(shí)時(shí)統(tǒng)計(jì)人數(shù),針對(duì)人頭顏色的專一性建立了相關(guān)的空間模型,利用人頭輪廓具有幾何特征的綜合特性來(lái)提高實(shí)時(shí)性要求,但是該方法對(duì)建立的空間顏色模型依賴性較大,不同區(qū)域的差異較大,準(zhǔn)確率有待提高。何揚(yáng)名等[4]在硬件上進(jìn)行了改進(jìn),采用雙目攝像頭,先通過左視圖進(jìn)行人頭區(qū)域的檢測(cè),再利用右視圖進(jìn)行匹配,以此解決人頭識(shí)別率的問題。該方法硬件成本要求相對(duì)較高,并不適合任何場(chǎng)景,并且在發(fā)生人頭遮擋以及人頭分辨率較低等情況下并不是有效的解決方法。

        目前,人數(shù)統(tǒng)計(jì)工作均基于監(jiān)控視頻[5],但在采集過程中經(jīng)常會(huì)受到各種外界環(huán)境的影響,并且為了能盡量保存較為完整的視頻數(shù)據(jù),會(huì)對(duì)視頻數(shù)據(jù)信息進(jìn)行了有損壓縮,致使圖像中的信息大量丟失,給人頭特征的提取帶來(lái)了較大的困難。

        本文提出了輪廓定位下的人頭特征提取方法。首先利用人頭輪廓具有類橢圓共性,采用輪廓快速定位人頭區(qū)域,再對(duì)定位區(qū)域進(jìn)行擬合采樣,最后利用NSCT進(jìn)行人頭特征提取。該方法不僅可以在不變動(dòng)目前市場(chǎng)上攝像頭位置情況下達(dá)到檢測(cè)的要求,同時(shí)也能解決僅僅通過某種單一特征方法進(jìn)行人頭識(shí)別而造成效果不理想的問題。實(shí)驗(yàn)證明:本方法能有效提高人頭檢測(cè)準(zhǔn)確率,尤其在一些視頻源效果較差的場(chǎng)景中表現(xiàn)較好。

        1 基于NSCT的人頭特征提取

        1.1 Contourlet變換

        Do等在2002年提出了Contourlet變換,其在小波變換所具有的較好稀疏性能優(yōu)點(diǎn)的基礎(chǔ)上,利用離散域?yàn)V波器組達(dá)到了最優(yōu)化、最有效的圖像表達(dá)。這樣,在對(duì)圖像進(jìn)行頻譜分析的過程中,其不僅在不同尺度和方向上具有各向異性尺度關(guān)系[6],同時(shí)能更準(zhǔn)確地將圖像中邊緣等幾何結(jié)構(gòu)信息分解到各個(gè)尺度上的帶通方向子帶中去,圖1是其通過兩級(jí)實(shí)現(xiàn)各方向子帶信息變換的結(jié)構(gòu)。

        圖1 CT變換結(jié)構(gòu)

        圖1中,Contourlet變換[7]主要通過濾波器組來(lái)實(shí)現(xiàn)多尺度、多方向的變換。其中,又包含了拉普拉斯金字塔(laplacian pyramid,LP)和方向?yàn)V波器組(directional filter bank,DFB)兩部分。首先利用LP來(lái)完成多尺度方向的變換;其次通過LP分解的低頻采樣信息和上一級(jí)的信號(hào)的低通采樣進(jìn)行差值化得出一個(gè)帶通分量;最后Contourlet變換通過迭代的分解求差,將圖像中具有多尺度、多方向的信息進(jìn)行了靈活的結(jié)合。由此可見,該方法在圖像稀疏表達(dá)上效果較好。

        1.2 非下采樣Contourlet變換

        其中: ij表示通過NSCT分解的第j個(gè)尺度方向上的低頻子帶信息; dj,k表示其在第k個(gè)方向的子帶信息。

        圖2 NSCT分解框架圖

        NSCT分解變換能有效提取樣本數(shù)據(jù)信息中人頭的特征信息,因?yàn)槠湓诙喑叨确较蚓哂械奶匦阅芨玫靥崛∵吘?、輪廓等?xì)節(jié)特征。對(duì)于人頭樣本圖像首先進(jìn)行多層分解,本文采用3層分解方式進(jìn)行。通過式(1) 推理可知,總共會(huì)得到8個(gè)不同方向的分解結(jié)果。

        圖3是對(duì)國(guó)際公開的FERET數(shù)據(jù)集中提取的一幅圖像進(jìn)行了3層分解后得到的各方向、尺度下的人頭分解子圖。

        圖3 NSCT3層分解效果

        1.3 幀間差分法下的人頭目標(biāo)分割

        幀間差分法[10]對(duì)光線等外界因素變化不敏感,在人群大量集中的動(dòng)態(tài)環(huán)境下,能夠有助于快速檢測(cè)出運(yùn)動(dòng)目標(biāo)區(qū)域。具體實(shí)現(xiàn)方法如下:

        式(2)中f( )表示圖像二值化函數(shù),t時(shí)刻坐標(biāo)點(diǎn)(x,y)的二值化表示為f(x,y,t),二值化閾值是T,其一般取經(jīng)驗(yàn)常數(shù),Dt,t-1(x,y,t)表示通過當(dāng)前幀f(x,y,t)與前一幀f(x,y,t-1)進(jìn)行差分計(jì)算后得到的二值化目標(biāo)區(qū)域。圖4為當(dāng)前幀(t時(shí)刻)與前一幀(t-1時(shí)刻)通過幀差法所得到的目標(biāo)區(qū)域。

        圖4 目標(biāo)分割

        1.4 目標(biāo)區(qū)域人頭輪廓定位

        人頭區(qū)域具有一定的輪廓規(guī)律性,對(duì)目標(biāo)區(qū)域進(jìn)行輪廓特征判斷就是要快速、初步判斷目標(biāo)區(qū)域是否是人頭,這是關(guān)鍵的一步。因?yàn)槿祟^的外圍輪廓所包圍的面積在一定的約束范圍內(nèi),可根據(jù)經(jīng)驗(yàn)數(shù)據(jù)來(lái)篩選、判斷該區(qū)域范圍內(nèi)的人頭區(qū)域,以減少檢測(cè)花費(fèi)的時(shí)間。本文算法中用C來(lái)表示輪廓[11],即:

        式(3)中:P代表人頭外圍輪廓區(qū)域周長(zhǎng);輪廓區(qū)域面積用A來(lái)表示。因?yàn)樵趯W(xué)術(shù)界并沒有像素點(diǎn)區(qū)域距離定義的規(guī)則標(biāo)準(zhǔn)時(shí),本文定義相鄰像素點(diǎn)之間的距離用單元1來(lái)表示,故目標(biāo)輪廓的周長(zhǎng)P即為像素點(diǎn)數(shù)目。

        在對(duì)目標(biāo)輪廓面積A進(jìn)行計(jì)算時(shí),采用類似八方向碼來(lái)進(jìn)行邊界跟蹤,其改進(jìn)方式是對(duì)原八方向碼0用8來(lái)進(jìn)行代替,其余不變,1~8分別表示45°、90°、135°、180°、225°、270°、315°、0°,如圖5所示。

        圖5 類八方向跟蹤示意圖

        目標(biāo)對(duì)象邊緣范圍確定,并對(duì)其進(jìn)行提取,如圖6中灰色區(qū)域即為輪廓邊界范圍。

        圖6 目標(biāo)定位輪廓邊界范圍

        對(duì)于邊界的每一個(gè)像素點(diǎn)的坐標(biāo)值定義為Pix[i],其中i表示圖中輪廓邊界第i個(gè)像素點(diǎn),像素點(diǎn)的起始位置為最左下角的輪廓邊界。Pix[i]·x、Pix[i]·y分別表示像素點(diǎn)i在x、y方向的坐標(biāo)值。位置標(biāo)定如圖7所示。

        圖7 邊界位置標(biāo)定

        對(duì)于每一個(gè)像素點(diǎn)進(jìn)行兩次矢量標(biāo)定:前矢量標(biāo)定和后矢量標(biāo)定,定義如下:

        式(4)中:ai表示像素點(diǎn)之間的方向,參考圖5。本文中對(duì)兩次標(biāo)定分別定義為SF和SL,其中:SF表示當(dāng)前像素點(diǎn)和前一個(gè)像素點(diǎn)之間的位置關(guān)系,SL則表示當(dāng)前像素點(diǎn)與后一個(gè)像素點(diǎn)之間的位置關(guān)系。SF標(biāo)注定義如下所示:

        (5)

        SL標(biāo)注定義為:

        (6)

        其中,當(dāng)i-1=0或者i+1>N時(shí),定義如下:

        由式(5)-(7)可分別計(jì)算得到前一像素點(diǎn)和后一像素點(diǎn)矢量標(biāo)注值,計(jì)算結(jié)果如圖8所示。

        圖8中兩個(gè)矢量值進(jìn)行求和,計(jì)算結(jié)果見圖9。

        對(duì)于圖9,如果S[i]的值不為±1,則按照式(8)進(jìn)行判斷:

        圖8 前、后矢量標(biāo)注

        圖9 前、后矢量標(biāo)注相加

        如果S[i]的值為±1,這里先定義Sx[i]:

        假設(shè)S[i]的值為k,那么對(duì)于S[i]=±1,判斷如下:

        經(jīng)過上述流程計(jì)算的最終結(jié)果如圖10所示。

        圖10 最終矢量標(biāo)注

        依據(jù)圖10,輪廓區(qū)域面積計(jì)算方法定義如下:

        其中:S[i]表示圖10中的結(jié)果;N表示S[i]為1的個(gè)數(shù)。根據(jù)式(3)推知任意一個(gè)圖形的人頭輪廓區(qū)域C的最小值為4π,最大值為:

        其中w和h分別表示視頻圖像的像素寬度和高度。由于人頭的輪廓區(qū)域圖像一般不會(huì)大于整個(gè)監(jiān)控圖像的1/4,所以本文閾值T應(yīng)滿足:

        利用閾值T判斷便可快速進(jìn)行人頭的目標(biāo)快速定位。

        1.5 輪廓區(qū)域下的NSCT特征提取

        輪廓區(qū)域定位能夠快速定位出可能符合人頭特征形狀的目標(biāo)區(qū)域,但是對(duì)于類圓的干擾仍然不能進(jìn)行有效的篩選,如圖11所示。對(duì)定位出的目標(biāo)區(qū)域進(jìn)行擬合、采樣至標(biāo)準(zhǔn)庫(kù)像素,本文選擇32像素×32像素標(biāo)準(zhǔn)。

        圖11 人頭目標(biāo)區(qū)域擬合、采樣

        1.6 用支持向量機(jī)對(duì)人頭進(jìn)行識(shí)別

        為了能對(duì)提取到的人頭特征進(jìn)行識(shí)別,本文采用了支持向量機(jī)下的基于統(tǒng)計(jì)學(xué)理論模型識(shí)別方法[12],由一定范圍的觀測(cè)樣本值和任意采樣區(qū)間對(duì)比得到最優(yōu)值空間,憑借此與其他類樣本之間的差別得到最大泛化,其基本原理:用于計(jì)算的特征參數(shù)經(jīng)過非線性算法轉(zhuǎn)換到一個(gè)多維空間,再通過內(nèi)積函數(shù)構(gòu)造出所需要的最優(yōu)化空間。SVM下人頭特征識(shí)別流程如圖12所示。

        圖12 人頭識(shí)別流程

        2 實(shí)驗(yàn)結(jié)果與分析

        1) 實(shí)驗(yàn)環(huán)境

        DELL Windows 10系統(tǒng),基于VS2012開發(fā)環(huán)境,采用Opencv2.4.13圖像處理庫(kù)。Intel i5-3470,3.20GHz,8GB 內(nèi)存空間。

        2) 數(shù)據(jù)集

        為了驗(yàn)證本文算法的有效性,測(cè)試視頻的幀來(lái)源于國(guó)際上公認(rèn)的數(shù)據(jù)庫(kù)PETS2009的Dataset S2:Person Count and Density Estimation。該數(shù)據(jù)庫(kù)包含了若干使用單相機(jī)、固定斜向下拍攝的視頻。視頻幀率為7幀/s。本文選用數(shù)據(jù)集S2中的兩段視頻來(lái)驗(yàn)證算法的有效性。其中:視頻段1是數(shù)據(jù)集S2里的S2.L3.Time_14-41.View_ 001,共包含240幀圖片,特點(diǎn)是人群正對(duì)攝像頭從遠(yuǎn)處不斷靠近攝像頭行走;視頻段2是數(shù)據(jù)集S2里的S2.L3.Time_14-41.View_004,共包含240幀圖片,特點(diǎn)是人群背對(duì)攝像頭向教學(xué)樓方向走去,慢慢遠(yuǎn)離攝像頭。實(shí)驗(yàn)結(jié)果如圖13所示。

        圖13 人頭識(shí)別效果

        從圖13可知:?jiǎn)蝹€(gè)人雖然處于遠(yuǎn)視角,但是仍然能較好地進(jìn)行識(shí)別;當(dāng)出現(xiàn)兩個(gè)人互相遮擋時(shí),仍然能夠進(jìn)行正確的判斷;在嚴(yán)重遮擋情況下,人頭輪廓出現(xiàn)了重疊,存在一定的檢測(cè)誤差。

        對(duì)PETS中的數(shù)據(jù)集進(jìn)行測(cè)試,圖14是現(xiàn)實(shí)中人數(shù)和采用本文算法檢測(cè)到的人頭數(shù)對(duì)比。

        圖15給出了本文提取方法同文獻(xiàn)[2]和文獻(xiàn)[4]兩種特征人頭檢測(cè)召回率性能比較結(jié)果。

        由圖15可知:在稀疏密度人群下,本文算法在識(shí)別率方面取得了較好的效果。另外,本文算法先通過輪廓定位人頭,再利用NSCT特征提取感興趣的區(qū)域,相比文獻(xiàn)[2]和[4],本文方法在視頻監(jiān)控圖像的分辨率較低的場(chǎng)景中人頭檢測(cè)的效果更佳。

        圖14 實(shí)際人頭與估計(jì)人頭對(duì)比

        圖15 幾種算法檢測(cè)率對(duì)比

        3 結(jié)束語(yǔ)

        本文針對(duì)監(jiān)控視頻下的人頭檢測(cè)領(lǐng)域,首次將NSCT特征同人頭輪廓進(jìn)行了相融合,發(fā)揮其各自的優(yōu)勢(shì)。首先,依據(jù)人頭類橢圓共性,利用輪廓快速進(jìn)行人頭定位,但該方法速度較快,存在較大誤差。為了解決該問題,對(duì)定位區(qū)域進(jìn)行擬合、采樣處理。其次,使用NSCT人頭特征提取,對(duì)傳統(tǒng)監(jiān)控視頻下的人頭分辨率較低時(shí)識(shí)別效果不理想的問題提供了有效的解決方法,即利用NSCT在目標(biāo)區(qū)域細(xì)節(jié)提取上的優(yōu)勢(shì)來(lái)進(jìn)行特征提取,從而避免了因分辨率較低帶來(lái)的信息缺失等問題。最后,用傳統(tǒng)的機(jī)器學(xué)習(xí)分類判斷人頭。實(shí)驗(yàn)證明:本文提出的算法取得比較好的結(jié)果,特別在分辨率低、圖像模糊的視頻中表現(xiàn)不錯(cuò)。但本文算法在人群密度較高場(chǎng)所下的人頭識(shí)別率較低,以后的工作中會(huì)考慮通過線性回歸模型的人數(shù)統(tǒng)計(jì)方法來(lái)解決該類問題。

        猜你喜歡
        人頭像素點(diǎn)輪廓
        交出人頭
        OPENCV輪廓識(shí)別研究與實(shí)踐
        基于實(shí)時(shí)輪廓誤差估算的數(shù)控系統(tǒng)輪廓控制
        假人頭防盜大法
        知識(shí)窗(2019年4期)2019-04-26 03:16:02
        基于canvas的前端數(shù)據(jù)加密
        朋友圈
        百花洲(2018年1期)2018-02-07 16:33:02
        基于逐像素點(diǎn)深度卷積網(wǎng)絡(luò)分割模型的上皮和間質(zhì)組織分割
        在線學(xué)習(xí)機(jī)制下的Snake輪廓跟蹤
        基于Node-Cell結(jié)構(gòu)的HEVC幀內(nèi)編碼
        創(chuàng)造早秋新輪廓
        舒適廣告(2008年9期)2008-09-22 10:02:48
        无码AV高潮喷水无码专区线| 一区二区精品国产亚洲| 亚洲av成人无遮挡网站在线观看| 人与禽交av在线播放| 自拍亚洲一区欧美另类| 亚洲av自偷自拍亚洲一区| 国产一区二区三区毛片| 国产成熟人妻换╳╳╳╳| 国产女精品| 日韩中文字幕一区二十| 四虎永久在线精品免费一区二区 | 国产一区二区三区免费观看在线 | 91精品国产色综合久久不| 产美女被爽到高潮免费a| 国产精品欧美一区二区三区不卡| 一级片久久| 国产精品亚洲在钱视频| 人妻精品在线手机观看| 国产黄在线观看免费观看不卡| 无码Av在线一区二区三区| 日本女优五十路中文字幕| 私人vps一夜爽毛片免费| 亚洲成人小说| 国产亚洲精品综合99久久| 久久国产精品亚洲va麻豆| 国产真人性做爰久久网站 | 性色av无码一区二区三区人妻| 一区二区三区放荡人妻| 国产一区二区三区小向美奈子| 国产乱妇无码大片在线观看 | 日韩精品网| 日本一区二区三区综合视频| 男女做爰高清免费视频网站| 污污污污污污WWW网站免费| 99久久无色码中文字幕鲁信| 插入日本少妇一区二区三区 | 性久久久久久久| 欧美亚洲另类国产18p| 丰满的少妇av一区二区三区| 亚洲成av人片在线观看麦芽 | 熟妇人妻不卡中文字幕|