亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進HOG共生概率特征的行人檢測算法

        2018-09-14 12:01:06李盈盈李菲菲
        電子科技 2018年9期
        關鍵詞:視圖直方圖分類器

        李盈盈,李菲菲,陳 虬

        (上海理工大學 光電信息與計算機工程學院,上海 200093)

        視覺信息是人類從客觀世界獲取的主要信息。隨著目標檢測系統(tǒng)的廣泛應用,對于目標檢測的精度要求越來越高。然而在復雜環(huán)境下實現(xiàn)高可靠性的目標檢測仍面臨著很大的困難,成為研究中重要和急需解決的問題。因此,本文就如何提高檢測精度進行了研究。

        文獻[1]提出了一種靜態(tài)人體目標檢測方法,即基于Boosting算法的目標檢測的共現(xiàn)概率特征。采用方向梯度直方圖(Histogram of Oriented Gradient, HOG)特征量,通過2段式Real AdaBoost算法進行學習,生成共生概率特征量(Co-occurrence Probability Feature ,CPF)來進行目標檢測。基于此方法,本文選取不同類型的局部特征量,篩選后全部放入特征池中,通過特征量的兩兩配對來計算共生概率特征量是否會更加有效。

        1 特征的選擇和融合

        基于局部模式提取特征在特征提出中發(fā)揮著重要作用。局部特征的類型有很多,文獻[2]提出的HOG特征具有較好的幾何和光學不變性;文獻[3]提取出的局部二值模式(Local Binary Pattern,LBP)特征具有灰度和旋轉不變的紋理特性;文獻[4]將HOG與LBP相結合,用于解決人體目標檢測中的局部遮擋問題;而文獻[5]提出了顏色自相似性(Color Self-similarity,CSS)算法,一種通過成對提取局部空間的色彩分布進行統(tǒng)計計算的新的顏色特征描述方法。下面對HOG、LBPHOG、CSSHOG這3種特征的提取及融合進行闡述。

        1.1 HOG特征

        HOG特征是一種用來進行物體邊緣梯度檢測的特征描述子。首先需要將檢測圖像進行灰度化和Gamma歸一化。然后計算每個像素的梯度包括大小和方向,如式(1)所示

        (1)

        其中Gx(x,y)和Gy(x,y)為x方向和y方向的梯度分量。然后為了統(tǒng)計局部圖像梯度信息并進行量化,對每個單元格(cell)構建梯度方向直方圖

        (2)

        其中統(tǒng)計梯度信息時采用三線性插值,然后將單元格組成塊(Block),實現(xiàn)塊內歸一化梯度直方圖,此處使用了L2-Norm方法

        (3)

        最后將所有Block的描述符串聯(lián)生成圖像的HOG特征描述向量。HOG特征的可視圖如圖1所示。

        圖1 灰度圖像與HOG特征可視圖

        1.2 LBPHOG特征

        LBP算法是一種典型的結構與統(tǒng)計相結合的圖像紋理分析方法,多用于數(shù)字圖像處理和模式識別,度量和提取圖像局部紋理信息。LBP包含了原始模式、圓形模式、旋轉不變模式和等價模式[4-6]。

        LBP的前3種模式均滿足2P的模型數(shù)量,即隨著采樣點數(shù)的增加,其模型數(shù)也呈指數(shù)增加。雖然較多的數(shù)據(jù)有助于提高精確度,但對特征的提取和分類都是較為不利的。因此進行進一步改進,當0、1跳變小于等于兩次時歸為等價模式[4]。

        (7)

        其中,U(LBPP,R) 為排序后的最小值

        U(LBPP,R)=|s(gp-1-gc)-s(g0-gc)|+

        通過不斷的改進,模型數(shù)由原來的2P減為P+1,仍保留所需的重要信息。當實驗選取R=1,P=8,模型數(shù)由256種減為9種,使得特征維數(shù)大幅減少,同時也減少了高頻噪聲帶來的影響。

        共生概率特征的生成,需要具有相同的直方圖特性。這里將LBP和HOG特征進行融合。融合過程如下,LBPHOG特征的可視圖如圖2所示。融合過程:

        (1)輸入樣本 {Xi},i=1,…,N;

        (2)進行如下計算:

        對于樣本集中的每張圖像:

        對于圖像中的每一個cell:

        計算CELL= Uniform-LBP(cell)

        對于CELL圖像中的每一個cell:

        計算HOG(cells)

        計算HOG(Blocks);

        (3)輸出LBPHOG特征。

        圖2 LBP與LBP-HOG特征的可視圖

        1.3 CSSHOG特征

        CSS特征是一種基于色彩的局部相似特征描述算子,通常利用服裝和皮膚顏色的相似性來進行圖像檢測[3,7],常見的圖像色彩一般為RGB圖像。

        首先需要將RGB圖像轉化為HSV圖像,而HSV圖像為3個通道,所以計算時要將其轉化為原點系坐標,轉化公式為

        (8)

        轉化過后做以下計算

        可是接下來的一幕把所有人都嚇傻了,周暄一拳頭揮過去把那人打倒在地,又沖上去補了兩拳,對方不甘心,跟周暄廝打,飯局一片混亂,一群人費了好大勁兒才把他倆拉開。

        (9)

        其中,c為當前所計算的cell,M×M為cell的大小,r={u,t,v},Ic(x,y,r)為每個像素在3個通道上的值。

        然后采用X2距離計算cell中每個像素與cell的相似性。計算見公式

        (10)

        將得到的S(x,y,c)作為每個像素的相似值,對該相似特征值采用HOG算法進行處理。計算步驟如下,可視圖如圖3所示。

        圖3 CSS與CSS-HOG特征的可視圖

        計算步驟:

        (1)輸入樣本集{Xi},i=1,…,N;

        (2)進行如下計算:

        對于樣本集中的每一張圖片:

        對于圖像中的每一個cell:

        計算相似值Value = CSS(pixel)

        計算HOG(cells)

        計算HOG(Blocks);

        (3)輸出CSSHOG特征。

        2 共生概率特征的生成

        CPF是一種新提出的圖像處理算法,通過不同數(shù)據(jù)特征的聯(lián)合來提高圖像處理的精度[8-9]。

        首先將提取的HOG、LBPHOG和CSSHOG特征放入同一個特征池。概率密度函數(shù)通過局部特征的直方圖計算得到

        (11)

        (12)

        其中,Dt(i)=1/N為樣本權重,N為樣本總數(shù),y∈{+1,-1}為樣本類別標簽,j為直方圖中的一個方向。

        然后通過概率密度函數(shù)計算弱分類器,計算公式為

        (13)

        其中,v為輸入的局部特征; 是防止分母為零的系數(shù)。

        最后計算CPF,有兩種操作手法:一種是加法,代表了兩個被選特征的弱關系;另一種是乘法,代表了兩個被選特征的強關系

        CPF+=f1(vc1)+f2(vc2)

        (14)

        CPF×=f1(vc1)+f2(vc2)

        (15)

        3 分類器的選擇及訓練

        分類器模型有很多,其中基于統(tǒng)計模型的分類器占據(jù)主導地位,包括人工神經(jīng)網(wǎng)絡、SVM和AdaBoost等。多分類器級聯(lián)機制的引入顯著提高了目標檢測效率[10-11]。

        圖4 Real AdaBoost的訓練過程

        文獻[12]運用不同的分類器對人體進行檢測,經(jīng)過大量實驗得出了SVM檢測效果最好,AdaBoost級聯(lián)方法檢測率高且運算復雜度低的結論。另外文獻[13]又提出了一種基于隱形SVM的目標檢測系統(tǒng),并且在PASCAL數(shù)據(jù)庫上取得了優(yōu)秀的檢測結果。

        本實驗采用Real AdaBoost分類器,并且在分類器的使用過程中采用了嵌套的形式,即利用兩個Real AdaBoost分類器,其中一個作為另一個(最終分類器)的訓練環(huán)節(jié)。詳細計算步驟參見圖4,具體實現(xiàn)如下:在上述流程中,(1)為通過第一階段的Real AdaBoost 實現(xiàn)特征篩選的過程;(2)為通過第二階段的Real AdaBoost 生成最后強分類器的過程。

        兩段式Real AdaBoost分類器的實現(xiàn)

        (1)輸入帶標簽的訓練樣本:

        {xi,yi}i=1,2,…,N,yi∈{-1,+1};

        (2)初始化權重

        D1(i)=1/N;

        (3)訓練過程如下:

        對于學習次數(shù)t=1,…,T:

        對于弱分類器個數(shù)m=1,…,M:

        生成CPF

        計算概率密度函數(shù)W

        計算弱分類器

        生成評估值Zm

        生成弱分類器:

        h1=arg minZt,m

        更新樣本權重:

        Dt+1(i)=Dt(i)exp[-yiht(xi)];

        (4) 輸出強分類器:

        通過上文可以發(fā)現(xiàn),想要計算所有特征的CPF需要消耗大量的時間并且會產(chǎn)生較高的數(shù)據(jù)維度,所以在計算局部特征的概率密度函數(shù)后使用巴塔恰里亞下界(Bhattacharyya Bound,Zt)縮小特征選取范圍,見式(16)。選取錯誤率較小的前200個特征進行CPF的計算,實現(xiàn)數(shù)據(jù)維度和計算量的減小

        (16)

        概率密度函數(shù)來源于式(11)和式(12),將篩選出的特征用來計算CPF。

        4 實驗分析

        4.1 數(shù)據(jù)庫

        近年來,大量公開數(shù)據(jù)庫提供了不同光照、背景、姿勢、視角等多種復雜情況下的目標圖片用于評估目標檢測方法的性能。實驗選用INRIA數(shù)據(jù)庫。在進行試驗前需將正負樣本進行尺寸統(tǒng)一(64,128)。表1為訓練和測試的正負樣本個數(shù)。

        表1 訓練和測試正負樣本個數(shù)

        4.2 實驗

        為了證明本實驗提出的方法行之有效,將所建立的新方法與文獻[1]中的方法進行比較。由于數(shù)據(jù)庫存在些許差異,所以又采取了另外一種驗證方式,即使用沒有結合的HOG特征先經(jīng)過PCA降至200維,然后直接使用Real AdaBoost分類器進行分類檢測。所有的實驗結果均通過受試者工作特性曲線(Receiver Operator Characteristic,ROC)進行觀察比較。ROC曲線是以負正類率(False Positive Rate,F(xiàn)PR)為縱坐標、真正類率(True Negative Rate,TPR)為橫坐標繪制成曲線,最靠近坐標圖左上方的點為敏感性和特異性均較高的臨界值。

        4.3 實驗結果

        實驗結果的ROC曲線如圖5所示,其中HOG(1) 表示的是傳統(tǒng)使用PCA進行數(shù)據(jù)維度降低后的RealAdaBoost分類檢測率。而HOG(CPF)是使用文獻[1]中算法得到的檢測率。剩余的6條曲線為本實驗提出的改進特征對應的檢測率??梢园l(fā)現(xiàn)HOG(CPF)特征的檢測率比傳統(tǒng)的HOG特征檢測率有明顯的提升,而改進后特征對應的檢測率比HOG(CPF)特征對應的檢測率又有了相應不同程度的提升,詳細數(shù)據(jù)參見表2。經(jīng)過改進的特征融合了紋理和色彩特性,有效解決了行人檢測中出現(xiàn)的遮擋和半重疊問題,如圖6所示。然而在進行檢 測的過程中,由于存在行人姿態(tài)多變性和嚴重遮擋等問題,因此仍存在一定的誤檢和漏檢情況,如圖7所示。

        圖5 實驗ROC特性曲線

        圖6 有效實現(xiàn)遮擋和半重疊的檢測

        圖7 左圖黑框為漏檢,右圖黑框為誤檢

        1%2%3%4%5%HOG(1)63.7580.8389.791 793.5495.312HOG(CPF)94.062 595.65297.161 597.942 798.072 9LBPHOG94.37596.2597.656 297.968 898.255 2CSSHOG94.479296.484 497.838 598.15198.333HOG+LBPHOG94.947 997.057 398.15198.359 498.541 7HOG+CSSHOG95.286 597.369 898.203 198.489 698.543 8LBPHOG+CSSHOG95.755 297.838 598.463 598.697 998.802 1HOG+LBPHOG+CSSHOG96.328 198.046 998.854 298.854 299.010 4

        表2描述了不同F(xiàn)PR下的檢測率??梢园l(fā)現(xiàn)在FPR為1%時,HOG(CPF)特征比HOG(1)特征提升了30.31%,而LBPHOG特征和CSSHOG特征與HOG(CPF)特征相比又分別提升了0.312 5%和0.416 7%。從顯示的數(shù)據(jù)來看,盡管隨著FPR的增大,檢測率的提升速度有所緩和,但在FPR為5%時,改進特征的最高檢測率為99.010 4%,仍比傳統(tǒng)HOG特征對應的檢測率提高了3.608 4%。以上實驗結果及分析證明了本文所提算法的有效性。

        5 結束語

        本文對圖像處理常用的HOG特征提出了改進,并基于該改進特征生成共生概率特征。本文提出的算法改進使得共生概率特征不僅具有HOG、LBPHOG、CSSHOG這3種特征的特性,還大幅減少了計算維度,在保證計算速度的同時提高了檢測精度。不過通過上述實驗結果顯示CSSHOG的特征曲線一直高于LBPHOG的特征曲線,與預估稍有偏差。接下來要做的是考慮LBP和CSS特征在不與HOG特征融合的情況下能否實現(xiàn)共生概率特征的計算。

        猜你喜歡
        視圖直方圖分類器
        統(tǒng)計頻率分布直方圖的備考全攻略
        符合差分隱私的流數(shù)據(jù)統(tǒng)計直方圖發(fā)布
        用直方圖控制畫面影調
        BP-GA光照分類器在車道線識別中的應用
        電子測試(2018年1期)2018-04-18 11:52:35
        5.3 視圖與投影
        視圖
        Y—20重型運輸機多視圖
        SA2型76毫米車載高炮多視圖
        加權空-譜與最近鄰分類器相結合的高光譜圖像分類
        結合模糊(C+P)均值聚類和SP-V-支持向量機的TSK分類器
        亚洲中文字幕有码av| 欧美日韩国产一区二区三区不卡 | 欧美做受又硬又粗又大视频| 最新高清无码专区| 亚洲免费av电影一区二区三区| av有码在线一区二区| 日韩女优精品一区二区三区| 97人人超碰国产精品最新| 高清国产日韩欧美| 久久这里只有精品黄色| 风韵犹存丰满熟妇大屁股啪啪| 亚洲 卡通 欧美 制服 中文| 日韩视频第二页| 加勒比熟女精品一区二区av| 伊人青青草综合在线视频免费播放| 成年女人免费视频播放体验区| 欧美日韩电影一区| 色婷婷精品国产一区二区三区| 女女同恋一区二区在线观看| 97精品一区二区视频在线观看| 国产精品一区高清在线观看| 一级一片内射在线播放| 国产欧美va欧美va香蕉在线| 色一情一乱一伦一区二区三区日本 | 欧美大黑帍在线播放| 日韩偷拍一区二区三区视频| 亚洲六月丁香色婷婷综合久久| 帅小伙自慰videogay男男| 国产又黄又猛又粗又爽的a片动漫 亚洲精品毛片一区二区三区 | 国产亚洲精品久久久ai换| 国产精品美女久久久久久大全| av在线不卡一区二区三区| 一本色道久久hezyo无码| 日韩内射美女人妻一区二区三区| 亚洲男人天堂av在线| 美女被内射中出在线观看| 精品久久久无码人妻中文字幕豆芽| 久99久热只有精品国产男同| 手机av在线观看视频| 日韩人妻不卡一区二区三区 | 在线日韩中文字幕乱码视频|