亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于Gabor小波與HOG特征的目標(biāo)檢測(cè)方法

        2014-11-20 08:18:36常岐海吳宗勝
        電視技術(shù) 2014年7期
        關(guān)鍵詞:小波特征提取分類器

        薛 茹,常岐海,吳宗勝

        (1.西藏民族學(xué)院信息工程學(xué)院,陜西咸陽712082;2.長安大學(xué)信息工程學(xué)院,陜西西安710064;3.西安理工大學(xué)機(jī)械與精密儀器工程學(xué)院,陜西西安710048;)

        計(jì)算機(jī)視覺中目標(biāo)的檢測(cè)和跟蹤是智能交通、智能監(jiān)控、體育視頻內(nèi)容分析等領(lǐng)域的重要基礎(chǔ)。因此,為了推動(dòng)視頻監(jiān)控系統(tǒng)智能化的發(fā)展,在理解目標(biāo)的行為之前,對(duì)場(chǎng)境中目標(biāo)的自動(dòng)識(shí)別是實(shí)現(xiàn)智能化必不可少的一部分,也是近幾年計(jì)算機(jī)視覺發(fā)展的重點(diǎn)和熱點(diǎn)。目標(biāo)的識(shí)別是在目標(biāo)運(yùn)動(dòng)范圍內(nèi)提取目標(biāo)的有效特征,并根據(jù)此特征進(jìn)行目標(biāo)的分類;其中最關(guān)鍵的是如何提取有效、魯棒、完整的特征,來提高目標(biāo)分類的精確度。盡管文獻(xiàn)中已經(jīng)有許多目標(biāo)識(shí)別方法,但是目標(biāo)的自動(dòng)識(shí)別問題還遠(yuǎn)未解決[1-2]。

        當(dāng)前已經(jīng)有了很多目標(biāo)識(shí)別方法,這些方法一般分為兩類:提取特征和構(gòu)建分類器。提取特征主要是從大量的訓(xùn)練樣本中提取目標(biāo)和非目標(biāo)的特征,用這些特征訓(xùn)練分類器。在測(cè)試中,該分類器在整個(gè)輸入圖像中尋找特定對(duì)象模式。這種方法在許多檢測(cè)不同對(duì)象過程中非常有效,例如人臉識(shí)別[3]和車牌識(shí)別[4]。關(guān)于檢測(cè)特征的方法可以區(qū)分為全局特征和局部特性。局部特征和全局特征的區(qū)別在于,全局特征是對(duì)整個(gè)圖像操作,而局部特征是針對(duì)圖像的一塊區(qū)域操作。眾所周知的全局特征提取方法是主成分分析(PCA)法,其缺點(diǎn)在于如果檢測(cè)目標(biāo)在外觀、姿勢(shì)和照明條件上有很大的變化,提取不出有意義的特征。另一方面,局部特征方法由于提取的特征針對(duì)圖像的部分區(qū)域,對(duì)這些問題更不敏感。局部特征提取的常用方法有小波系數(shù)[3]、梯度方向[5]和區(qū)域協(xié)方差[6]。局部特征的方法是對(duì)人身體各部分進(jìn)行檢測(cè),然后對(duì)各部分的結(jié)果進(jìn)行融合,再用分類器完成對(duì)目標(biāo)的檢測(cè)。局部特征檢測(cè)的優(yōu)勢(shì)是可以處理由于身體關(guān)節(jié)引起的目標(biāo)不同的外形。然而,這種方法增加了目標(biāo)檢測(cè)過程的復(fù)雜性[7]。文獻(xiàn)[8]對(duì)幾種目標(biāo)檢測(cè)方法的性能通過分類器接收操作特性(Receiver Operating Characteristic,ROC)檢測(cè)其性能和效率。檢測(cè)的方法包括PCA、局部接收?qǐng)?LRF)特征[9]、Haar小波的不同特性訓(xùn)練神經(jīng)網(wǎng)絡(luò)、支持向量機(jī)[10]和 k-NN(神經(jīng)網(wǎng)路分類器),得到的結(jié)論是SVM與LRF特征結(jié)合的方法性能最好。同時(shí)也可以看到基于全局特征的檢測(cè)器性能大于局部特征檢測(cè)器。這可能是由于目標(biāo)外形有太多變化,像PCA的全局特征能更好地為目標(biāo)建立穩(wěn)定的模型。近幾年方向梯度直方圖(HOG)特征在目標(biāo)檢測(cè)中的應(yīng)用使目標(biāo)檢測(cè)技術(shù)有了很大進(jìn)步,HOG算子成功之處在于它采用了梯度的統(tǒng)計(jì)信息描述目標(biāo)的局部輪廓。文獻(xiàn)[5]中用HOG算子表示一個(gè)位置上用固定大小的目標(biāo)塊,塊大小固定化是為了降低計(jì)算量;在此基礎(chǔ)上提出了很多改進(jìn)的方法,如文獻(xiàn)[7],考慮到固定大小的HOG塊漏掉了全局線索,因此它采用了可變大小的(VHOG)塊,以不同大小的塊獲得更多的信息,并用線性SVM形成弱分類器,然后用級(jí)聯(lián)Adaboost機(jī)制識(shí)別目標(biāo),從結(jié)果中可以看到這種方法比原始的HOG方法性能好。

        本文在文獻(xiàn)[5]和文獻(xiàn)[7]方法的基礎(chǔ)上,結(jié)合HOG特征,提出一種基于GHOG與realboosting方法結(jié)合的目標(biāo)識(shí)別方法。Gabor小波強(qiáng)調(diào)圖像在同一頻率的特征成分,辨別局部目標(biāo)和提取尺度、旋轉(zhuǎn)、變換、光照變化不變的局部特征[11]。特別適合急劇變化的目標(biāo),比如視頻監(jiān)控中移動(dòng)的目標(biāo)。因此,Gabor小波從局部區(qū)域捕獲信息,并且將不同方向、頻率和尺度的相應(yīng)濾波信息進(jìn)行結(jié)合,用來表示復(fù)雜的目標(biāo)[12]。這樣,由于包含了幾個(gè)Gabor圖像,每個(gè)濾波有好幾個(gè)Gabor圖像,能維護(hù)和增強(qiáng)目標(biāo)的整體信息。這種豐富會(huì)反映在HOG特征提取方法中,本文中的Gabor特征的融合能增強(qiáng)圖像中的相關(guān)信息,并降低其他信息的影響,排除干擾和影響分類性能的混亂數(shù)據(jù)。Gabor預(yù)處理后,相關(guān)的目標(biāo)信息被增強(qiáng),不相關(guān)的信息和數(shù)據(jù)被排除,提高了HOG算法的全局性能。

        1 GHOG特征提取

        1.1 Gabor小波變換

        Gabor小波變換是被Gabor提出使用在1D的信號(hào)分解,是時(shí)頻域分析在時(shí)域和頻域最優(yōu)化的決策。由于它的形狀類似于視覺皮層簡單細(xì)胞的可接收?qǐng)?,從?shù)學(xué)上講它在測(cè)量局部空間頻率上Gabor小波是最佳的;在模式識(shí)別中Gabor小波能產(chǎn)生畸變寬容特征空間,廣泛引用在紋理分割、字符識(shí)別、指紋識(shí)別領(lǐng)域中。

        在空間域,2D Gabor小波可以看作是被正弦平面波調(diào)制的一個(gè)高斯核。Gabor小波函數(shù)的定義為ψ(ku,v,r)

        式中:r=(x,y);‖·‖ 表示范數(shù)運(yùn)算;ku,v=kveiφu,kv=kmax/fv;φu=πu/8;f為核函數(shù)在一個(gè)限定域中的間隔因子;在介于4到16像素中,u和v分別表示Gabor濾波器的方向和尺度。用Gabor濾波函數(shù)對(duì)目標(biāo)圖像的濾波,可以通過與圖像的卷積來實(shí)現(xiàn)。

        式中:I(z)表示目標(biāo)的灰度圖像z=(x,y);* 表示卷積運(yùn)算。在運(yùn)算中卷積除了在空間范圍內(nèi)逐個(gè)像素進(jìn)行,還要在頻域中按高斯窗口寬度、振蕩方向、波長進(jìn)行。

        為了在實(shí)際采樣過程中較全面地得到細(xì)節(jié)紋理,需要均衡v,u或kv,取值,即盡量在不同的尺度和方向上均勻取值。在[0,π]范圍幾乎覆蓋采樣所需的所有方向空間,因此,u或Qu可以在該范圍內(nèi)連續(xù)取值。當(dāng)然,方向選取越多,得到的紋理信息越接近實(shí)際,但是同時(shí)會(huì)使采樣獲得的特征維數(shù)增多,運(yùn)算復(fù)雜度加大;所以本文采用均勻離散采樣的方法,使每個(gè)方向上都有采樣點(diǎn)。這樣通過5 個(gè)尺度(v∈ {0,1,2,3,4})、8 個(gè)方向(0 ~7π/8)進(jìn)行采樣,u∈ {0,1,2,3,4,5,6,7}。

        1.2 Gabor特征融合圖像

        從圖1中可以看出,5個(gè)尺度、8個(gè)方向會(huì)生成40幅Gabor特征圖像,如果直接用HOG方法提取特征會(huì)使接下來的分類過程計(jì)算量和內(nèi)存成本大大提高,為了使目標(biāo)識(shí)別系統(tǒng)更加有效但又不丟失其特征,需要對(duì)Gabor特征進(jìn)行融合。

        1)方向融合

        本文首先采用文獻(xiàn)[13]提出的全局編碼的形式,對(duì)Gabor特征在同一尺度的多個(gè)方向上的特征進(jìn)行編碼,這樣能有效降低Gabor特征的維數(shù),又能保證方向特征信息不丟失。

        根據(jù)QBC,對(duì)于每個(gè)像素的5個(gè)尺度、8個(gè)方向的Gabor特征,可以對(duì)每個(gè)像素進(jìn)行編碼。針對(duì)每個(gè)像素在給定尺度時(shí)根據(jù)不同的方向上的Gabor特征的實(shí)部和虛部進(jìn)行編碼。GCv(z)表示為像素z在尺度v的編碼。(z)與(z)分別表示Gabor的實(shí)部和虛部編碼,i=7表示從0~7的8個(gè)方向。編碼完成后,實(shí)部和虛部都是8個(gè)二進(jìn)制位表示,其表示的十進(jìn)制數(shù)字的范圍為[0,255]。

        圖1 圖像Gabor特征提取過程

        編碼之后每個(gè)像素可以用8位二進(jìn)制數(shù)表示,剛好符合灰度圖像像素的表示范圍,對(duì)編碼之后的圖像提取(如圖1)后發(fā)現(xiàn),紋理比較豐富。

        2)尺度融合

        融和后的圖像還有5個(gè)尺度上的特征,從圖1可以看出,融和后的圖像在5個(gè)尺度上紋理比較相似,由此可見存在一定的數(shù)據(jù)冗余,為了讓融合后的圖像簡單、有效地展現(xiàn)其Gabor特征,又能保證其特征信息不丟失,可以對(duì)其5個(gè)尺度繼續(xù)進(jìn)行融合。

        在方向融合的過程中發(fā)現(xiàn),每個(gè)像素都可以由一個(gè)類似灰度的編碼表示。為了保證5個(gè)尺度上編碼信息不丟失,采用對(duì)每個(gè)像素編碼的十進(jìn)制數(shù)求均值的方法,這樣既能兼顧每個(gè)尺度上信息,又能降低數(shù)據(jù)的維數(shù),降低計(jì)算量。公式為

        從圖1可以看到,尺度融合后的圖像能從整體上顯示出人的輪和紋理,剔除了由于陰影、姿態(tài)等造成的干擾。由此可見,Gabor特征的融和圖像能夠鑒別出目標(biāo)的紋理特征,另外,由于HOG對(duì)于紋理圖像特征的檢測(cè)效率較高,因此Gabor特征圖像進(jìn)行直方圖特征提取。

        1.3 HOG特征提取和分類

        在實(shí)際中,為了提高HOG方法檢測(cè)的精度,在單元格內(nèi)計(jì)算時(shí)采用了重疊單元的歸一的方法,通過歸一化能有效提高檢測(cè)結(jié)果的穩(wěn)定性。本文在此輸入的圖像是Gabor特征圖像,其本身紋理和輪廓就比較明顯,為了更清晰地提取目標(biāo)的紋理和輪廓信息,對(duì)此采用HOG的方法提取目標(biāo)特征。

        為了對(duì)檢測(cè)到的Gabor圖像中顏色的變化和反差進(jìn)行定位,需要計(jì)算每個(gè)像素的梯度,用2個(gè)一維的簡單算子,水平方向采用[-1,0,1],垂直方向用[-1,0,1]T。在計(jì)算方向直方圖的過程中,需要2×2的單元,每個(gè)單元9個(gè)方向通道,每個(gè)窗口中會(huì)有一個(gè)包含36個(gè)特征的向量。這樣,每幅圖像一共有21×36=756個(gè)特征。根據(jù)文獻(xiàn)[5]中對(duì)于塊的歸一化問題采用L2Hys的方法,設(shè)v為塊向量,對(duì)其標(biāo)準(zhǔn)化后的Vnorm為

        式中:ξ為一個(gè)近似為0的正數(shù);‖·‖2為二范數(shù),根據(jù)塊的空間位置其向量按順序排列,這樣就形成了GHOG統(tǒng)計(jì)特征。

        考慮到GHOG特征的維數(shù)偏大,訓(xùn)練樣本的數(shù)目也非常大。傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)分類方法,其學(xué)習(xí)時(shí)間過長,如果用其來構(gòu)造目標(biāo)識(shí)別的分類器學(xué)習(xí)時(shí)間超過1 h;雖然SVM方法需要的學(xué)習(xí)時(shí)間比較短,但是在檢測(cè)過程中花費(fèi)的時(shí)間較長,這樣使用SVM方法就不能實(shí)現(xiàn)實(shí)時(shí)檢測(cè)的目的;Boosting方法學(xué)習(xí)時(shí)間不長,檢測(cè)的速度也比較快。和RealAdaboost方法相比,Adaboost方法是采用二值判斷的,而RealAdaboost方法采用的命中率(即置信度)來描述目標(biāo)識(shí)別的精確程度。開始時(shí)的分類器是在一個(gè)開練集中訓(xùn)練得到的,用初始的分類器從大量目標(biāo)圖像中對(duì)目標(biāo)隨機(jī)樣本中的GHOG特征進(jìn)行識(shí)別,根據(jù)識(shí)別的結(jié)果計(jì)算每層的誤警率,并且在下一層的學(xué)習(xí)中不斷增加負(fù)樣本。HOG特征提取如圖2所示。

        圖2 HOG特征提取

        2 試驗(yàn)與分析

        對(duì)于目標(biāo)檢測(cè),已經(jīng)有幾個(gè)公用的標(biāo)準(zhǔn)數(shù)據(jù)庫,本文采用的INRIA幾乎覆蓋了所有的視點(diǎn)和姿態(tài)的變化。它包括了訓(xùn)練用的2 478個(gè)正樣本和1 218個(gè)負(fù)樣本。由于INRIA數(shù)據(jù)集中都是分割后的樣本,因此對(duì)分類方法中的訓(xùn)練算法比較有效。另外本文還采用MIT的目標(biāo)數(shù)據(jù)集,其中包含正924張目標(biāo)圖片,沒有負(fù)樣本。通過MIT與INRIA標(biāo)準(zhǔn)數(shù)據(jù)庫訓(xùn)練分類器,將圖像分為兩類,目標(biāo)和非目標(biāo)。分類器首先通過訓(xùn)練圖像進(jìn)行學(xué)習(xí),然后對(duì)測(cè)試圖像進(jìn)行檢測(cè)。

        2.1 試驗(yàn)結(jié)果

        用該方法測(cè)試PET2009的數(shù)據(jù)庫,根據(jù)INRIA數(shù)據(jù)集,用INRIA訓(xùn)練樣本對(duì)本文提出的方法進(jìn)行學(xué)習(xí),另外,采用查全率和精確率測(cè)量來檢測(cè)本文提出的方法,結(jié)果如表1所示。查全率是檢測(cè)正確目標(biāo)的數(shù)目除以目標(biāo)的總數(shù)目(tp為正陽性數(shù)目,檢測(cè)到且是目標(biāo)像素的數(shù)目;fn為沒有檢測(cè)目標(biāo)像素的數(shù)目);查準(zhǔn)率是檢測(cè)到目標(biāo)像素?cái)?shù)目除以檢測(cè)目標(biāo)像素?cái)?shù)目(tp真陽性與假陽性fp的和)。

        表1 PET2009檢測(cè)中的查全率和查準(zhǔn)率

        視頻PET2009的視頻序列中,seq2中目標(biāo)存比較擁擠、遮擋比較嚴(yán)重的現(xiàn)象,因此檢測(cè)查全率和查準(zhǔn)率都不高;相反在seq1中,人行較少,且?guī)缀醵际仟?dú)立存在的,因此查準(zhǔn)率為1,同樣seq3和seq4中目標(biāo)大部分是獨(dú)立的,所以查準(zhǔn)率也較高;seq3中,目標(biāo)比較清晰且無遮擋因此查準(zhǔn)率比其他高。

        2.2 結(jié)果分析

        為了進(jìn)一步證明本文提出方法的性能,在實(shí)驗(yàn)中將本文的方法與其他目標(biāo)檢測(cè)方法進(jìn)行對(duì)比,其中包括HOG_SVM[3]、VHOG_CAdaboost[5]方法。比較的方法采用錯(cuò)誤率(MissRate)和每個(gè)窗口的假陽性(FPPW)的曲線圖,F(xiàn)PPW定義如下

        比較結(jié)果如圖3所示。HOG_SVM方法的數(shù)據(jù)是通過開放源碼HOG和LinSVM及論文的結(jié)論;VHOG_CAdaboost方法的數(shù)據(jù)結(jié)論來自于文獻(xiàn)。從圖中可以看到本文提出的方法比基于HOG的方法性能優(yōu)越,在FPPW為10-5時(shí),本文的方法達(dá)到了9%的漏檢率,比HOG_SVM方法低了8%。

        圖3 與傳統(tǒng)方法在INRIA數(shù)據(jù)集中的比較

        3 結(jié)論

        Gabor濾波方法是目標(biāo)分類特征提取較的好方法,但是由于Gabor特征的維數(shù)很大,因此會(huì)占用大量的內(nèi)存和計(jì)算時(shí)間。因此在設(shè)計(jì)分類方法時(shí)應(yīng)考慮到特征的維數(shù)。另外,將1幅圖像和40個(gè)Gabor小波進(jìn)行卷積計(jì)算量也是非常大的,這將使Gabor不能應(yīng)用于實(shí)時(shí)目標(biāo)檢測(cè)中。本文提出的方法能在提取Gabor特征的同時(shí)對(duì)圖像的Gabor特征在方向和尺度上較好地融合,并保持原圖像的特征,形成Gabor特征圖像;通過對(duì)Gabor圖像進(jìn)行HOG提取進(jìn)行目標(biāo)檢測(cè),能有效降低錯(cuò)誤檢測(cè)率;另外該方法選取了RealAdaboot的方法進(jìn)行分類,在時(shí)間上有效彌補(bǔ)了提取Gabor花費(fèi)的時(shí)間,在Gabor特征圖像融合過程中采取了編碼的方式,使計(jì)算量也有效降低。因此該方法在節(jié)約內(nèi)存和降低計(jì)算量方面有更好的性能。

        [1]張壯暑,蔡曉東,張學(xué)敏.監(jiān)控視頻中運(yùn)動(dòng)目標(biāo)識(shí)別分類系統(tǒng)研究[J].電視技術(shù),2012,36(23):165-167.

        [2]張建飛,陳樹越,劉會(huì)明,等.基于支持向量機(jī)的交通視頻人車識(shí)別研究[J].電視技術(shù),2011,35(15):1-3.

        [3] VIOLA P,JONESM J.Robust real-time face detection[J].International Journal of Computer Vision,2004,57(2):137-154.

        [4] AMIT Y,GEMAN D,F(xiàn)AN X.A coarse-to-fine strategy for multiclass shape detection[J].IEEE Trans.Pattern Analysis and Machine Intelligence,2004,26(12):1606-1621.

        [5] DALAL N,TRIGGSB.Histograms of oriented gradients for human detection[C]//Proc.IEEE Conference on Computer Vision Pattern Recognition.San Diego:IEEE Press,2005:886-893.

        [6] TUZEL O,PORIKLIF,MEER P.Human detection via classificationon Riemannian manifolds[C]//Proc.IEEE Conference on Vision Pattern Recognition.Minneapolis:IEEE Press,2007:1-8.

        [7] ZHU Q,AVIDAN S,YEH M C,et al.Fast human detection using a cascade of histograms of oriented gradients[C]//Proc.IEEE Conference on Computer Vision Pattern Recognition.[S.l.]:IEEE Press,2006:1491-1498.

        [8] MUNDER S,GAVRILA D M.An experimental study on pedestrian classification[J].IEEE Trans.Pattern Anal.Mach.Intell.,2006,28(11):1863-1868.

        [9] WHLER C,ANLAUF J.An adaptable time-delay neural-network algorithm for image sequence analysis[J].IEEE Trans.Neural Netw.,1999,10(6):1531-1536.

        [10] TAYLOR J,CRISTIANINI N.Support vector machines and other Kernel-based learning methods[M].Cambridge,U.K.:Cambridge U-niversity Press,2000.

        [11] KYRKIV,KAMARAINEN JK.Simple Gabor feature space for invariant object recognition[J].Pattern Recognition Lett.,2004,25(3):311-318.

        [12] KRUGER V,SOMMER G.Gabor wavelet networks for efficient the adopts estimation[J].Image Vision Computer,2002,20(9-10):665-672.

        [13] ZHANG Baochang,SHAN Shiguang.Histogram of Gabor phase patterns(HGPP):a novel object representation approach for face recognition[J].Trans.Image Processing,2007,16(1):57-59.

        猜你喜歡
        小波特征提取分類器
        構(gòu)造Daubechies小波的一些注記
        基于MATLAB的小波降噪研究
        電子制作(2019年13期)2020-01-14 03:15:32
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        BP-GA光照分類器在車道線識(shí)別中的應(yīng)用
        基于改進(jìn)的G-SVS LMS 與冗余提升小波的滾動(dòng)軸承故障診斷
        Bagging RCSP腦電特征提取算法
        加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
        結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機(jī)的TSK分類器
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        基于LLE降維和BP_Adaboost分類器的GIS局部放電模式識(shí)別
        在线观看一区二区三区国产| 成人网站在线进入爽爽爽| 好紧好爽免费午夜视频| 欧美大肥婆大肥bbbbb| 老熟女毛茸茸浓毛| 中文字幕精品亚洲无线码二区 | 看大陆男女真人草逼视频| 国产精品黑丝美腿美臀| 亚洲第一狼人天堂网亚洲av| 国产性生大片免费观看性| 久久久久亚洲av无码尤物| 不打码在线观看一区二区三区视频 | 精品亚洲一区二区区别在线观看 | 国产精品美女主播在线| 久久精品国产熟女亚洲| 婷婷五月六月综合缴情| 久久久精品免费国产四虎| 给我看免费播放的视频在线观看| 日本在线观看| 亚洲综合av一区二区三区蜜桃| 国产福利97精品一区二区| 亚洲av综合a色av中文| 视频区一区二在线观看| 久久男人av资源网站无码| 国产成人精品午夜视频| 免费人成在线观看播放视频| a级福利毛片| 真实国产老熟女无套中出| 精品中文字幕在线不卡| 国产欧美激情一区二区三区| av潮喷大喷水系列无码| av黄页网国产精品大全| 成人国产自拍在线播放| 醉酒后少妇被疯狂内射视频| 国产对白国语对白| 亚洲一区中文字幕一区| 五月天综合社区| 国产精品乱码在线观看| 久久久99久久久国产自输拍| 一区二区三区极品少妇| 亚洲国产精品无码久久九九大片健|